Delen via


Gegevens lezen die worden gedeeld met delta delen (voor geadresseerden)

In dit artikel wordt beschreven hoe u gegevens leest die met u zijn gedeeld met behulp van het open sharing-protocol van Delta Sharing. Het bevat instructies voor het lezen van gedeelde gegevens met Databricks, Apache Spark, pandas, PowerBI en Tableau.

Bij het openen van delen gebruikt u een referentiebestand dat is gedeeld met een lid van uw team door de gegevensprovider om veilige leestoegang te krijgen tot gedeelde gegevens. De toegang blijft behouden zolang de referentie geldig is en de provider de gegevens blijft delen. Providers beheren het verlopen en rouleren van referenties. Updates voor de gegevens zijn vrijwel in realtime beschikbaar. U kunt kopieën van de gedeelde gegevens lezen en maken, maar u kunt de brongegevens niet wijzigen.

Notitie

Als gegevens met u zijn gedeeld met databricks-to-Databricks Delta Sharing, hebt u geen referentiebestand nodig om toegang te krijgen tot gegevens. Dit artikel is niet van toepassing op u. Zie Gegevens lezen die worden gedeeld met Databricks-to-Databricks Delta Sharing (voor ontvangers) voor instructies.

In de volgende secties wordt beschreven hoe u Azure Databricks, Apache Spark, pandas en Power BI gebruikt om gedeelde gegevens te openen en te lezen met behulp van het referentiebestand. Zie de opensourcedocumentatie voor Delta Sharing voor een volledige lijst met Connectors voor Delta Sharing en informatie over het gebruik ervan. Als u problemen ondervindt bij het openen van de gedeelde gegevens, neemt u contact op met de gegevensprovider.

Notitie

Partnerintegraties worden, tenzij anders vermeld, geleverd door de derde partijen en u moet een account hebben met de juiste provider voor het gebruik van hun producten en diensten. Hoewel Databricks zijn best doet om deze inhoud up-to-date te houden, geven we geen garantie met betrekking tot deze integraties of de nauwkeurigheid van de inhoud van de partnerintegratiepagina's. Neem contact op met de juiste providers voor alle zaken die te maken hebben met de integraties.

Voordat u begint

Een lid van uw team moet het referentiebestand downloaden dat wordt gedeeld door de gegevensprovider. Zie Toegang krijgen in het open sharing-model.

Ze moeten een beveiligd kanaal gebruiken om dat bestand of de bestandslocatie met u te delen.

Azure Databricks: Gedeelde gegevens lezen met behulp van open connectors voor delen

In deze sectie wordt beschreven hoe u een open connector voor delen gebruikt voor toegang tot gedeelde gegevens met behulp van een notebook in uw Azure Databricks-werkruimte. U of een ander lid van uw team slaat het referentiebestand op in DBFS. Vervolgens gebruikt u het om te verifiëren bij het Azure Databricks-account van de gegevensprovider en de gegevens te lezen die de gegevensprovider met u heeft gedeeld.

Notitie

Als de gegevensprovider Databricks-to-Databricks deelt en geen referentiebestand met u heeft gedeeld, moet u toegang krijgen tot de gegevens met behulp van Unity Catalog. Zie Gegevens lezen die worden gedeeld met Databricks-to-Databricks Delta Sharing (voor ontvangers) voor instructies.

In dit voorbeeld maakt u een notitieblok met meerdere cellen die u onafhankelijk kunt uitvoeren. U kunt in plaats daarvan de notebookopdrachten aan dezelfde cel toevoegen en deze op volgorde uitvoeren.

Stap 1: Het referentiebestand opslaan in DBFS (Python-instructies)

In deze stap gebruikt u een Python-notebook in Azure Databricks om het referentiebestand op te slaan, zodat gebruikers in uw team toegang hebben tot gedeelde gegevens.

Ga verder met de volgende stap als u of iemand in uw team het referentiebestand al heeft opgeslagen in DBFS.

  1. Open het referentiebestand in een teksteditor.

  2. Klik in uw Azure Databricks-werkruimte op Nieuw > notebook.

    • Voer een naam in.
    • Stel de standaardtaal voor het notebook in op Python.
    • Selecteer een cluster dat u aan het notebook wilt koppelen.
    • Klik op Create.

    Het notitieblok wordt geopend in de notebook-editor.

  3. Als u Python of pandas wilt gebruiken om toegang te krijgen tot de gedeelde gegevens, installeert u de Python-connector voor deltadeling. Plak de volgende opdracht in de notebook-editor:

    %sh pip install delta-sharing
    
  4. Voer de cel uit.

    De delta-sharing Python-bibliotheek wordt geïnstalleerd in het cluster als deze nog niet is geïnstalleerd.

  5. Plak in een nieuwe cel de volgende opdracht, waarmee de inhoud van het referentiebestand wordt geüpload naar een map in DBFS. Vervang de variabelen als volgt:

    • <dbfs-path>: het pad naar de map waarin u het referentiebestand wilt opslaan

    • <credential-file-contents>: de inhoud van het referentiebestand. Dit is geen pad naar het bestand, maar de gekopieerde inhoud van het bestand.

      Het referentiebestand bevat JSON waarmee drie velden worden gedefinieerd: shareCredentialsVersion, endpointen bearerToken.

      %scala
      dbutils.fs.put("<dbfs-path>/config.share","""
      <credential-file-contents>
      """)
      
  6. Voer de cel uit.

    Nadat het referentiebestand is geüpload, kunt u deze cel verwijderen. Alle werkruimtegebruikers kunnen het referentiebestand lezen uit DBFS en het referentiebestand is beschikbaar in DBFS op alle clusters en SQL-warehouses in uw werkruimte. Als u de cel wilt verwijderen, klikt u helemaal rechts op x in het menu Celacties celacties.

Stap 2: Een notitieblok gebruiken om gedeelde tabellen weer te geven en te lezen

In deze stap vermeldt u de tabellen in de share of een set gedeelde tabellen en partities en voert u een query uit op een tabel.

  1. Gebruik Python en vermeld de tabellen in de share.

    Plak de volgende opdracht in een nieuwe cel. Vervang <dbfs-path> door het pad dat is gemaakt in stap 1: Sla het referentiebestand op in DBFS (Python-instructies).

    Wanneer de code wordt uitgevoerd, leest Python het referentiebestand uit DBFS op het cluster. Toegang tot gegevens die zijn opgeslagen in DBFS op het pad /dbfs/.

    import delta_sharing
    
    client = delta_sharing.SharingClient(f"/dbfs/<dbfs-path>/config.share")
    
    client.list_all_tables()
    
  2. Voer de cel uit.

    Het resultaat is een matrix met tabellen, samen met metagegevens voor elke tabel. In de volgende uitvoer ziet u twee tabellen:

    Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]
    

    Als de uitvoer leeg is of niet de verwachte tabellen bevat, neemt u contact op met de gegevensprovider.

  3. Een query uitvoeren op een gedeelde tabel.

    • Scala gebruiken:

      Plak de volgende opdracht in een nieuwe cel. Wanneer de code wordt uitgevoerd, wordt het referentiebestand vanuit DBFS gelezen via de JVM.

      Vervang de variabelen als volgt:

      • <profile-path>: het DBFS-pad van het referentiebestand. Bijvoorbeeld: /<dbfs-path>/config.share.
      • <share-name>: de waarde van share= de tabel.
      • <schema-name>: de waarde van schema= de tabel.
      • <table-name>: de waarde van name= de tabel.
      %scala
          spark.read.format("deltaSharing")
          .load("<profile-path>#<share-name>.<schema-name>.<table-name>").limit(10);
      

      Voer de cel uit. Telkens wanneer u de gedeelde tabel laadt, ziet u nieuwe gegevens uit de bron.

    • SQL gebruiken:

      Als u een query wilt uitvoeren op de gegevens met behulp van SQL, maakt u een lokale tabel in de werkruimte op basis van de gedeelde tabel en voert u vervolgens een query uit op de lokale tabel. De gedeelde gegevens worden niet opgeslagen of in de cache opgeslagen in de lokale tabel. Telkens wanneer u een query uitvoert op de lokale tabel, ziet u de huidige status van de gedeelde gegevens.

      Plak de volgende opdracht in een nieuwe cel.

      Vervang de variabelen als volgt:

      • <local-table-name>: de naam van de lokale tabel.
      • <profile-path>: de locatie van het referentiebestand.
      • <share-name>: de waarde van share= de tabel.
      • <schema-name>: de waarde van schema= de tabel.
      • <table-name>: de waarde van name= de tabel.
      %sql
      DROP TABLE IF EXISTS table_name;
      
      CREATE TABLE <local-table-name> USING deltaSharing LOCATION "<profile-path>#<share-name>.<schema-name>.<table-name>";
      
      SELECT * FROM <local-table-name> LIMIT 10;
      

      Wanneer u de opdracht uitvoert, worden de gedeelde gegevens rechtstreeks opgevraagd. Als test wordt de tabel opgevraagd en worden de eerste 10 resultaten geretourneerd.

    Als de uitvoer leeg is of niet de verwachte gegevens bevat, neemt u contact op met de gegevensprovider.

Apache Spark: gedeelde gegevens lezen

Volg deze stappen voor toegang tot gedeelde gegevens met spark 3.x of hoger.

In deze instructies wordt ervan uitgegaan dat u toegang hebt tot het referentiebestand dat is gedeeld door de gegevensprovider. Zie Toegang krijgen in het open sharing-model.

De Delta Sharing Python- en Spark-connectors installeren

Ga als volgt te werk om toegang te krijgen tot metagegevens met betrekking tot de gedeelde gegevens, zoals de lijst met tabellen die met u zijn gedeeld. In dit voorbeeld wordt Python gebruikt.

  1. Installeer de Python-connector voor deltadeling:

    pip install delta-sharing
    
  2. Installeer de Apache Spark-connector.

Gedeelde tabellen weergeven met Spark

De tabellen in de share weergeven. Vervang in het volgende voorbeeld door <profile-path> de locatie van het referentiebestand.

import delta_sharing

client = delta_sharing.SharingClient(f"<profile-path>/config.share")

client.list_all_tables()

Het resultaat is een matrix met tabellen, samen met metagegevens voor elke tabel. In de volgende uitvoer ziet u twee tabellen:

Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]

Als de uitvoer leeg is of niet de verwachte tabellen bevat, neemt u contact op met de gegevensprovider.

Gedeelde gegevens openen met Spark

Voer het volgende uit, waarbij u deze variabelen vervangt:

  • <profile-path>: de locatie van het referentiebestand.
  • <share-name>: de waarde van share= de tabel.
  • <schema-name>: de waarde van schema= de tabel.
  • <table-name>: de waarde van name= de tabel.
  • <version-as-of>:facultatief. De versie van de tabel om de gegevens te laden. Werkt alleen als de gegevensprovider de geschiedenis van de tabel deelt. Vereist delta-sharing-spark 0.5.0 of hoger.
  • <timestamp-as-of>:facultatief. Laad de gegevens in de versie vóór of op de opgegeven tijdstempel. Werkt alleen als de gegevensprovider de geschiedenis van de tabel deelt. Vereist delta-sharing-spark 0.6.0 of hoger.

Python

delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", version=<version-as-of>)

spark.read.format("deltaSharing")\
.option("versionAsOf", <version-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))

delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", timestamp=<timestamp-as-of>)

spark.read.format("deltaSharing")\
.option("timestampAsOf", <timestamp-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))

Scala

Voer het volgende uit, waarbij u deze variabelen vervangt:

  • <profile-path>: de locatie van het referentiebestand.
  • <share-name>: de waarde van share= de tabel.
  • <schema-name>: de waarde van schema= de tabel.
  • <table-name>: de waarde van name= de tabel.
  • <version-as-of>:facultatief. De versie van de tabel om de gegevens te laden. Werkt alleen als de gegevensprovider de geschiedenis van de tabel deelt. Vereist delta-sharing-spark 0.5.0 of hoger.
  • <timestamp-as-of>:facultatief. Laad de gegevens in de versie vóór of op de opgegeven tijdstempel. Werkt alleen als de gegevensprovider de geschiedenis van de tabel deelt. Vereist delta-sharing-spark 0.6.0 of hoger.
spark.read.format("deltaSharing")
.option("versionAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)

spark.read.format("deltaSharing")
.option("timestampAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)

Toegang tot gedeelde gegevensfeed voor wijzigingen met Spark

Als de tabelgeschiedenis met u is gedeeld en CDF (Data Feed) is ingeschakeld in de brontabel, kunt u de gegevensfeed wijzigen door het volgende uit te voeren, waarbij u deze variabelen vervangt. Vereist delta-sharing-spark 0.5.0 of hoger.

Er moet slechts één beginparameter worden opgegeven.

  • <profile-path>: de locatie van het referentiebestand.
  • <share-name>: de waarde van share= de tabel.
  • <schema-name>: de waarde van schema= de tabel.
  • <table-name>: de waarde van name= de tabel.
  • <starting-version>:facultatief. De beginversie van de query, inclusief. Geef op als een long.
  • <ending-version>:facultatief. De eindversie van de query, inclusief. Als de eindversie niet is opgegeven, gebruikt de API de nieuwste tabelversie.
  • <starting-timestamp>:facultatief. De begintijdstempel van de query wordt geconverteerd naar een versie die groter of gelijk is aan deze tijdstempel. Opgeven als een tekenreeks in de notatie yyyy-mm-dd hh:mm:ss[.fffffffff].
  • <ending-timestamp>:facultatief. Het eindtijdstempel van de query wordt geconverteerd naar een versie die eerder is gemaakt of gelijk is aan deze tijdstempel. Opgeven als een tekenreeks in de notatie yyyy-mm-dd hh:mm:ss[.fffffffff]

Python

delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_version=<starting-version>,
  ending_version=<ending-version>)

delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_timestamp=<starting-timestamp>,
  ending_timestamp=<ending-timestamp>)

spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("statingVersion", <starting-version>)\
.option("endingVersion", <ending-version>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("startingTimestamp", <starting-timestamp>)\
.option("endingTimestamp", <ending-timestamp>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

Scala

spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("statingVersion", <starting-version>)
.option("endingVersion", <ending-version>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("startingTimestamp", <starting-timestamp>)
.option("endingTimestamp", <ending-timestamp>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

Als de uitvoer leeg is of niet de verwachte gegevens bevat, neemt u contact op met de gegevensprovider.

Toegang tot een gedeelde tabel met behulp van Spark Structured Streaming

Als de tabelgeschiedenis met u wordt gedeeld, kunt u de gedeelde gegevens streamen. Vereist delta-sharing-spark 0.6.0 of hoger.

Ondersteunde opties:

  • ignoreDeletes: Transacties negeren die gegevens verwijderen.
  • ignoreChanges: Updates opnieuw verwerken als bestanden zijn herschreven in de brontabel vanwege een bewerking voor het wijzigen van gegevens, zoals UPDATE, MERGE INTODELETE (binnen partities) of OVERWRITE. Ongewijzigde rijen kunnen nog steeds worden verzonden. Daarom moeten uw downstreamgebruikers dubbele waarden kunnen verwerken. Verwijderingen worden niet downstream doorgegeven. ignoreChanges ondergaat ignoreDeletes. Als u deze gebruikt ignoreChanges, wordt uw stream daarom niet onderbroken door verwijderingen of updates voor de brontabel.
  • startingVersion: De versie van de gedeelde tabel waaruit moet worden gestart. Alle tabelwijzigingen vanaf deze versie (inclusief) worden gelezen door de streamingbron.
  • startingTimestamp: het tijdstempel waaruit moet worden gestart. Alle tabelwijzigingen die zijn doorgevoerd op of na de tijdstempel (inclusief) worden gelezen door de streamingbron. Voorbeeld: "2023-01-01 00:00:00.0".
  • maxFilesPerTrigger: Het aantal nieuwe bestanden dat in elke microbatch moet worden overwogen.
  • maxBytesPerTrigger: De hoeveelheid gegevens die in elke microbatch wordt verwerkt. Met deze optie stelt u een 'voorlopig maximum' in, wat betekent dat een batch ongeveer deze hoeveelheid gegevens verwerkt en meer dan de limiet kan verwerken om de streamingquery vooruit te laten gaan in gevallen waarin de kleinste invoereenheid groter is dan deze limiet.
  • readChangeFeed: Stream leest de wijzigingengegevensfeed van de gedeelde tabel.

Niet-ondersteunde opties:

  • Trigger.availableNow

Voorbeeldquery's voor gestructureerd streamen

Scala
spark.readStream.format("deltaSharing")
.option("startingVersion", 0)
.option("ignoreChanges", true)
.option("maxFilesPerTrigger", 10)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
Python
spark.readStream.format("deltaSharing")\
.option("startingVersion", 0)\
.option("ignoreDeletes", true)\
.option("maxBytesPerTrigger", 10000)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

Zie ook Streamen op Azure Databricks.

Tabellen lezen waarvoor verwijderingsvectoren of kolomtoewijzing is ingeschakeld

Belangrijk

Deze functie is beschikbaar als openbare preview.

Verwijderingsvectoren zijn een functie voor opslagoptimalisatie die uw provider kan inschakelen voor gedeelde Delta-tabellen. Zie Wat zijn verwijderingsvectoren?

Azure Databricks ondersteunt ook kolomtoewijzing voor Delta-tabellen. Zie De naam van kolommen wijzigen en neerzetten met delta lake-kolomtoewijzing.

Als uw provider een tabel heeft gedeeld met verwijderingsvectoren of kolomtoewijzing ingeschakeld, kunt u de tabel lezen met behulp van rekenkracht met delta-sharing-spark 3.1 of hoger. Als u Databricks-clusters gebruikt, kunt u batchleesbewerkingen uitvoeren met behulp van een cluster met Databricks Runtime 14.1 of hoger. Voor CDF- en streamingquery's is Databricks Runtime 14.2 of hoger vereist.

U kunt batchquery's als zodanig uitvoeren, omdat ze automatisch kunnen worden omgezet responseFormat op basis van de tabelfuncties van de gedeelde tabel.

Als u een CDF (Change Data Feed) wilt lezen of streamingquery's wilt uitvoeren op gedeelde tabellen waarvoor verwijderingsvectoren of kolomtoewijzing zijn ingeschakeld, moet u de extra optie responseFormat=deltainstellen.

In de volgende voorbeelden ziet u batch-, CDF- en streamingquery's:

import org.apache.spark.sql.SparkSession

val spark = SparkSession
        .builder()
        .appName("...")
        .master("...")
        .config("spark.sql.extensions", "io.delta.sql.DeltaSparkSessionExtension")
        .config("spark.sql.catalog.spark_catalog", "org.apache.spark.sql.delta.catalog.DeltaCatalog")
        .getOrCreate()

val tablePath = "<profile-file-path>#<share-name>.<schema-name>.<table-name>"

// Batch query
spark.read.format("deltaSharing").load(tablePath)

// CDF query
spark.read.format("deltaSharing")
  .option("readChangeFeed", "true")
  .option("responseFormat", "delta")
  .option("startingVersion", 1)
  .load(tablePath)

// Streaming query
spark.readStream.format("deltaSharing").option("responseFormat", "delta").load(tablePath)

Pandas: gedeelde gegevens lezen

Volg deze stappen voor toegang tot gedeelde gegevens in pandas 0.25.3 of hoger.

In deze instructies wordt ervan uitgegaan dat u toegang hebt tot het referentiebestand dat is gedeeld door de gegevensprovider. Zie Toegang krijgen in het open sharing-model.

De Delta Sharing Python-connector installeren

Als u toegang wilt krijgen tot metagegevens met betrekking tot de gedeelde gegevens, zoals de lijst met tabellen die met u worden gedeeld, moet u de Python-connector voor deltadeling installeren.

pip install delta-sharing

Gedeelde tabellen weergeven met pandas

Als u de tabellen in de share wilt weergeven, voert u het volgende uit, waarbij u de locatie van het referentiebestand vervangt <profile-path>/config.share .

import delta_sharing

client = delta_sharing.SharingClient(f"<profile-path>/config.share")

client.list_all_tables()

Als de uitvoer leeg is of niet de verwachte tabellen bevat, neemt u contact op met de gegevensprovider.

Gedeelde gegevens openen met pandas

Als u toegang wilt krijgen tot gedeelde gegevens in pandas met behulp van Python, voert u het volgende uit, waarbij u de variabelen als volgt vervangt:

  • <profile-path>: de locatie van het referentiebestand.
  • <share-name>: de waarde van share= de tabel.
  • <schema-name>: de waarde van schema= de tabel.
  • <table-name>: de waarde van name= de tabel.
import delta_sharing
delta_sharing.load_as_pandas(f"<profile-path>#<share-name>.<schema-name>.<table-name>")

Toegang krijgen tot een gedeelde gegevensfeed voor wijzigingen met pandas

Als u de wijzigingengegevensfeed voor een gedeelde tabel in Pandas wilt openen met behulp van Python, voert u de volgende opdracht uit, waarbij u de variabelen als volgt vervangt. Mogelijk is er geen wijzigingsgegevensfeed beschikbaar, afhankelijk van of de gegevensprovider de gegevensfeed voor de tabel heeft gedeeld.

  • <starting-version>:facultatief. De beginversie van de query, inclusief.
  • <ending-version>:facultatief. De eindversie van de query, inclusief.
  • <starting-timestamp>:facultatief. Het begintijdstempel van de query. Dit wordt geconverteerd naar een versie die groter of gelijk is aan deze tijdstempel.
  • <ending-timestamp>:facultatief. De eindtijdstempel van de query. Dit wordt geconverteerd naar een versie die eerder is gemaakt of gelijk is aan deze tijdstempel.
import delta_sharing
delta_sharing.load_table_changes_as_pandas(
  f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_version=<starting-version>,
  ending_version=<starting-version>)

delta_sharing.load_table_changes_as_pandas(
  f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_timestamp=<starting-timestamp>,
  ending_timestamp=<ending-timestamp>)

Als de uitvoer leeg is of niet de verwachte gegevens bevat, neemt u contact op met de gegevensprovider.

Power BI: Gedeelde gegevens lezen

Met de Power BI Delta Sharing-connector kunt u gegevenssets detecteren, analyseren en visualiseren die met u zijn gedeeld via het open protocol Delta Sharing.

Vereisten

Verbinding maken met Databricks

Ga als volgt te werk om verbinding te maken met Azure Databricks met behulp van de Delta Sharing-connector:

  1. Open het bestand met gedeelde referenties met een teksteditor om de eindpunt-URL en het token op te halen.
  2. Open Power BI Desktop.
  3. Zoek in het menu Gegevens ophalen naar Delta Sharing.
  4. Selecteer de connector en klik op Verbinding maken.
  5. Voer de eindpunt-URL in die u hebt gekopieerd uit het referentiebestand in het veld URL van de Delta Sharing Server.
  6. U kunt desgewenst op het tabblad Geavanceerde opties een rijlimiet instellen voor het maximum aantal rijen dat u kunt downloaden. Dit is standaard ingesteld op 1 miljoen rijen.
  7. Klik op OK.
  8. Kopieer voor verificatie het token dat u hebt opgehaald uit het referentiebestand naar het Bearer-token.
  9. Klik op Verbinding maken.

Beperkingen van de Power BI Delta Sharing-connector

De Power BI Delta Sharing Connector heeft de volgende beperkingen:

  • De gegevens die door de connector worden geladen, moeten in het geheugen van uw computer passen. Om deze vereiste te beheren, beperkt de connector het aantal geïmporteerde rijen tot de rijlimiet die u hebt ingesteld op het tabblad Geavanceerde opties in Power BI Desktop.

Tableau: Gedeelde gegevens lezen

Met de Tableau Delta Sharing-connector kunt u gegevenssets detecteren, analyseren en visualiseren die met u worden gedeeld via het open protocol Delta Sharing.

Vereisten

Verbinding maken met Azure Databricks

Ga als volgt te werk om verbinding te maken met Azure Databricks met behulp van de Delta Sharing-connector:

  1. Ga naar Tableau Exchange, volg de instructies om de Delta Sharing Connector te downloaden en in een geschikte bureaubladmap te plaatsen.
  2. Open Tableau Desktop.
  3. Zoek op de pagina Connectors naar Delta Sharing by Databricks.
  4. Selecteer Upload Share-bestand en kies het referentiebestand dat door de provider is gedeeld.
  5. Klik op Gegevens ophalen.
  6. Selecteer de tabel in Data Explorer.
  7. Voeg desgewenst SQL-filters of rijlimieten toe.
  8. Klik op Tabelgegevens ophalen.

Beperkingen van de Connector voor Het delen van Tableau Delta

De Tableau Delta Sharing Connector heeft de volgende beperkingen:

  • De gegevens die door de connector worden geladen, moeten in het geheugen van uw computer passen. Om deze vereiste te beheren, beperkt de connector het aantal geïmporteerde rijen tot de rijlimiet die u in Tableau hebt ingesteld.
  • Alle kolommen worden geretourneerd als type String.
  • SQL-filter werkt alleen als uw Delta Sharing-server predicateHint ondersteunt.

Een nieuwe referentie aanvragen

Als uw referentieactiverings-URL of gedownloade referenties verloren gaan, beschadigd of aangetast zijn of als uw referenties verlopen zonder dat uw provider u een nieuwe referentie stuurt, neemt u contact op met uw provider om een nieuwe referentie aan te vragen.