Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Zusammenfassung
Gegenstand | BESCHREIBUNG |
---|---|
Freigabezustand | Allgemeine Verfügbarkeit |
Produkte | Power BI (Semantikmodelle) Power BI (Datenflüsse) Fabric (Dataflow Gen2) Power Apps (Dataflows) Dynamics 365 Customer Insights Analyse-Services |
Unterstützte Authentifizierungstypen | Organisationskonto Kontoschlüssel Sas-Schlüssel (Shared Access Signature) Service Principal |
Funktionsreferenzdokumentation |
AzureStorage.DataLake AzureStorage.DataLakeContents |
Hinweis
Einige Funktionen sind möglicherweise in einem Produkt vorhanden, jedoch nicht in anderen, was auf Bereitstellungszeitpläne und hostspezifische Funktionen zurückzuführen ist.
Voraussetzungen
Ein Azure-Abonnement. Navigieren Sie zu Kostenlose Azure-Testversion.
Ein Speicherkonto mit einem hierarchischen Namespace. Befolgen Sie die Anweisungen unter Erstellen eines Speicherkontos , um ein Speicherkonto zu erstellen. In diesem Artikel wird davon ausgegangen, dass Sie ein Speicherkonto mit dem Namen
myadlsg2
erstellt haben.Stellen Sie sicher, dass Sie eine der folgenden Rollen für das Speicherkonto erhalten: Blob Data Reader, Blob Data Contributor oder Blob Data Owner.
Eine Beispieldatendatei mit dem Namen
Drivers.txt
befindet sich in Ihrem Speicherkonto. Sie können dieses Beispiel aus dem Git-Repository von Azure Data Lake herunterladen und diese Datei dann in Ihr Speicherkonto hochladen.
Unterstützte Funktionen
- Importieren
- Dateisystemansicht
- CDM-Ordneransicht
Herstellen einer Verbindung mit Azure Data Lake Storage Gen2 über Power Query Desktop
Wählen Sie Azure Data Lake Storage Gen2 in der Datenabruf-Erfahrung aus. Der Datenabholungsprozess in Power Query Desktop variiert zwischen den Apps. Weitere Informationen zur Power Query Desktop-Oberfläche zum Abrufen von Daten für Ihre App finden Sie unter Wo können Sie Datenabrufen.
Geben Sie im Dialogfeld Azure Data Lake Storage Gen2 die URL zu Ihrem Azure Data Lake Storage Gen2-Konto, -Container oder -Unterordner mithilfe des Containerendpunktformats an. URLs für Data Lake Storage Gen2 weisen das folgende Muster auf:
<https://accountname.dfs.core.windows.net>/<container>/<subfolder>
Sie können auch auswählen, ob Sie die Dateisystemansicht oder die Ordneransicht "Common Data Model" verwenden möchten.
Wählen Sie OK aus, um fortzufahren.
Wenn Sie diese URL-Adresse zum ersten Mal verwenden, werden Sie aufgefordert, die Authentifizierungsmethode auszuwählen.
Wenn Sie die Methode des Organisationskontos auswählen, wählen Sie "Anmelden " aus, um sich bei Ihrem Speicherkonto anzumelden. Sie werden zur Anmeldeseite Ihrer Organisation umgeleitet. Folgen Sie den Anweisungen, um sich beim Konto anzumelden. Nachdem Sie sich erfolgreich angemeldet haben, wählen Sie Verbinden aus.
Wenn Sie die Kontoschlüsselmethode auswählen, geben Sie Ihren Kontoschlüssel ein, und wählen Sie dann "Verbinden" aus.
Im Dialogfeld "Navigator " werden alle Dateien unter der von Ihnen angegebenen URL angezeigt. Überprüfen Sie die Informationen, und wählen Sie dann entweder "Daten transformieren" aus, um die Daten in Power Query zu transformieren oder "Laden", um die Daten zu laden.
Herstellen einer Verbindung mit Azure Data Lake Storage Gen2 über Power Query Online
Wählen Sie die Azure Data Lake Storage Gen2-Option in der Datenabrufoberfläche aus. Verschiedene Apps bieten unterschiedliche Möglichkeiten, um die Datenerfassungsfunktion von Power Query Online zu nutzen. Weitere Informationen darüber, wie Sie die Datenerfassungsfunktion von Power Query Online aus Ihrer App erreichen, finden Sie unter Wo Sie Daten abrufen können.
Geben Sie unter Mit Datenquelle verbinden die URL für Ihr Azure Data Lake Storage Gen2-Konto ein. Wie Sie die zu verwendende URL ermitteln, erfahren Sie unter Einschränkungen.
Wählen Sie aus, ob Sie die Dateisystemansicht oder die Common Data Model-Ordneransicht verwenden möchten.
Wählen Sie bei Bedarf das lokale Datengateway im Datengateway aus.
Wählen Sie Anmelden aus, um sich beim Azure Data Lake Storage Gen2-Konto anzumelden. Sie werden zur Anmeldeseite Ihrer Organisation umgeleitet. Folgen Sie den Anweisungen, um sich beim Konto anzumelden.
Nachdem Sie sich erfolgreich angemeldet haben, wählen Sie Weiter aus.
Auf der Seite " Daten auswählen " werden alle Dateien unter der von Ihnen angegebenen URL angezeigt. Überprüfen Sie die Informationen, und wählen Sie dann "Daten transformieren " aus, um die Daten in Power Query zu transformieren.
Einschränkungen
Unterordner oder Datei, der in Power Query Online und Power BI Desktop nicht unterstützt wird
Derzeit unterstützt der Azure Data Lake Storage Gen2-Connector in Power Query Online und in Power BI Desktop nur Pfade mit Container und nicht Unterordner oder Datei. Beispielsweise funktioniert https://<accountname>.dfs.core.windows.net/<container>, während https://<accountname>.dfs.core.windows.net/<container>/<filename> oder https://<accountname>.dfs.core.windows.net/<container>/<subfolder> fehlschlagen könnte.
Authentifizierung aktualisieren
Microsoft unterstützt keine Datenfluss- oder Semantikmodellaktualisierung mithilfe der OAuth2-Authentifizierung, wenn sich das Azure Data Lake Storage Gen2 (ADLS)-Konto in einem anderen Mandanten befindet. Diese Einschränkung gilt nur für ADLS, wenn die Authentifizierungsmethode OAuth2 ist, d. h. wenn Sie versuchen, eine Verbindung mit einem mandantenübergreifenden ADLS mithilfe eines Microsoft Entra-ID-Kontos herzustellen. In diesem Fall wird empfohlen, eine andere Authentifizierungsmethode zu verwenden, die keine OAuth2/Microsoft Entra-ID ist, z. B. die Schlüsselauthentifizierungsmethode.
Proxy- und Firewallanforderungen
Wenn Sie einen Datenfluss mithilfe eines Gateways erstellen, müssen Sie möglicherweise einige Ihrer Proxyeinstellungen oder Firewallports ändern, um eine erfolgreiche Verbindung mit Ihrem Azure Data Lake herzustellen. Wenn ein Datenfluss mit einer gatewaygebundenen Aktualisierung fehlschlägt, liegt es möglicherweise an einer Firewall oder einem Proxyproblem auf dem Gateway zu den Azure-Speicherendpunkten.
Wenn Sie einen Proxy mit Ihrem Gateway verwenden, müssen Sie möglicherweise die Microsoft.Mashup.Container.NetFX45.exe.config Datei im lokalen Datengateway konfigurieren. Weitere Informationen: Konfigurieren von Proxyeinstellungen für das lokale Datengateway.
Um die Konnektivität von Ihrem Netzwerk mit dem Azure Data Lake zu aktivieren, müssen Sie möglicherweise bestimmte IP-Adressen auf dem Gatewaycomputer aktivieren. Wenn Ihr Netzwerk beispielsweise Firewallregeln enthält, die diese Versuche blockieren könnten, müssen Sie die Blockierung der ausgehenden Netzwerkverbindungen für Ihren Azure-Datensee aufheben. Um die Liste der erforderlichen ausgehenden Adressen aufzulisten, verwenden Sie das AzureDataLake-Dienst-Tag. Weitere Informationen: Tags für virtuelle Netzwerkdienste
Dataflows unterstützen auch die Option "Bring Your Own" data lake, was bedeutet, dass Sie Ihren eigenen Data Lake erstellen, Ihre Berechtigungen verwalten und sie explizit mit Ihrem Datenfluss verbinden. In diesem Fall müssen Sie, wenn Sie eine Verbindung mit Ihrer Entwicklungs- oder Produktionsumgebung mithilfe eines Organisationskontos herstellen, eine der folgenden Rollen für das Speicherkonto aktivieren: Blob Data Reader, Blob Data Contributor oder Blob Data Owner.
Power Query Online und Azure Storage befinden sich in derselben Region
Direkter Zugriff auf ein Azure Storage-Konto mit aktivierter Firewall und in derselben Region wie Power Query Online wird nicht unterstützt. Diese Einschränkung tritt auf, da Power Query-Dienste, die in derselben Region wie das Azure-Speicherkonto bereitgestellt werden, private Azure-IP-Adressen für die Kommunikation verwenden. Weitere Details finden Sie in der Azure-Dokumentation zur Sicherheit des Speichernetzwerks.
Um diese Einschränkung zu umgehen und den Zugriff auf Azure Storage aus Power Query Online in derselben Region zu ermöglichen, verwenden Sie eine der folgenden Methoden:
- Verwenden Sie ein lokales Datengateway, das als Brücke zwischen Power Query Online und Azure Storage dient.
- Verwenden Sie ein Datengateway für ein Virtuelles Netzwerk (VNet).