Ereignisse
31. März, 23 Uhr - 2. Apr., 23 Uhr
Das größte Fabric-, Power BI- und SQL-Lernereignis. 31. März – 2. April. Verwenden Sie Code FABINSIDER, um $400 zu sparen.
Jetzt registrierenDieser Browser wird nicht mehr unterstützt.
Führen Sie ein Upgrade auf Microsoft Edge durch, um die neuesten Features, Sicherheitsupdates und den technischen Support zu nutzen.
Gilt für:✅ Warehouse in Microsoft Fabric
Warehouse in Microsoft Fabric bietet integrierte Datenerfassungstools, mit denen Benutzer*innen Daten im großen Stil in Warehouses erfassen können, indem sie No-Code- oder codebasierte Umgebungen verwenden.
Sie können Daten mit einer der folgenden Optionen in einem Warehouse erfassen:
Um zu entscheiden, welche Datenerfassungsoption verwendet werden soll, können Sie die folgenden Kriterien verwenden:
Hinweis
Die COPY-Anweisung in Warehouse unterstützt nur Datenquellen für Azure-Speicherkonten, OneLake-Quellen werden derzeit nicht unterstützt.
Die Datenerfassung für Warehouse in Microsoft Fabric bietet eine Vielzahl von Datenformaten und -quellen, die Sie verwenden können. Jede der beschriebenen Optionen enthält eine eigene Liste der unterstützten Datentypen und Datenformate.
Für die warehouseübergreifende Erfassung müssen sich Datenquellen innerhalb desselben Microsoft Fabric-Arbeitsbereichs befinden. Abfragen können mithilfe einer dreiteiligen Benennung für die Quelldaten ausgeführt werden.
Nehmen Sie zum Beispiel an, es gäbe in einem Arbeitsbereich zwei Warehouses mit den Namen „Inventory“ und „Sales“. Eine Abfrage wie die folgende erstellt eine neue Tabelle im „Inventory“-Warehouse mit dem Inhalt einer Tabelle im „Inventory“-Warehouse, die mit einer Tabelle im „Sales“-Warehouse verknüpft ist:
CREATE TABLE Inventory.dbo.RegionalSalesOrders
AS
SELECT s.SalesOrders, i.ProductName
FROM Sales.dbo.SalesOrders s
JOIN Inventory.dbo.Products i
WHERE s.ProductID = i.ProductID
AND s.Region = 'West region'
Die Anweisung COPY (Transact-SQL) unterstützt derzeit die Dateiformate PARQUET und CSV. Als Datenquellen werden derzeit Azure Data Lake Storage (ADLS) Gen2 und Azure Blob Storage unterstützt.
Datenpipelines und Dataflows unterstützen eine Vielzahl von Datenquellen und Datenformaten. Weitere Informationen finden Sie unter Datenpipelines und Dataflows.
Das COPY-Befehlsfeature in Warehouse in Microsoft Fabric verwendet eine einfache, flexible und schnelle Schnittstelle für die Datenerfassung mit hohem Durchsatz für SQL-Workloads. Das ausschließliche Laden von Daten aus externen Speicherkonten wird in der aktuellen Version unterstützt.
Sie können auch T-SQL verwenden, um eine neue Tabelle zu erstellen und dann Datenzeilen in sie einzufügen sowie diese Zeilen anschließend zu aktualisieren und zu löschen. Daten können mithilfe datenbankübergreifender Abfragen aus einer beliebigen Datenbank innerhalb des Microsoft Fabric-Arbeitsbereichs eingefügt werden. Wenn Sie Daten aus einem Lakehouse in einem Warehouse erfassen möchten, können Sie dies mit einer datenbankübergreifenden Abfrage tun. Beispiel:
INSERT INTO MyWarehouseTable
SELECT * FROM MyLakehouse.dbo.MyLakehouseTable;
Hinweis
Unabhängig davon, wie Sie Daten in Warehouses erfassen, werden die von der Datenerfassungsaufgabe erzeugten Parquet-Dateien mithilfe von V-Order optimiert. V-Order optimiert die Parquet-Dateien, um blitzschnelle Lesevorgänge in den Microsoft Fabric-Computemodulen wie Power BI, SQL, Spark usw. zu ermöglichen. Warehouse-Abfragen profitieren durch diese Optimierung im Allgemeinen von schnelleren Lesezeiten für Abfragen, wobei sichergestellt wird, dass die Parquet-Dateien weiterhin zu 100 % der Open Source-Spezifikation entsprechen. Im Gegensatz zu Fabric-Datentechnik ist V-Reihenfolge in Fabric Data Warehouse eine globale Einstellung, die nicht deaktiviert werden kann. Weitere Informationen zu V-Order finden Sie unter Grundlegendes und Verwalten von V-Order für Warehouse.
Ereignisse
31. März, 23 Uhr - 2. Apr., 23 Uhr
Das größte Fabric-, Power BI- und SQL-Lernereignis. 31. März – 2. April. Verwenden Sie Code FABINSIDER, um $400 zu sparen.
Jetzt registrierenTraining
Modul
Ingestion des données à l’échelle du pétaoctet avec Azure Data Factory - Training
Ingestion des données à l’échelle du pétaoctet avec un pipeline Azure Synapse ou Azure Data Factory
Zertifizierung
Certifié Microsoft : Fabric Data Engineer Associate - Certifications
En tant qu’ingénieur données fabric, vous devez avoir une expertise en matière de modèles de chargement de données, d’architectures de données et de processus d’orchestration.