Événement
31 mars, 23 h - 2 avr., 23 h
Le plus grand événement d’apprentissage Fabric, Power BI et SQL. 31 mars au 2 avril. Utilisez le code FABINSIDER pour économiser 400 $.
Inscrivez-vous aujourd’huiCe navigateur n’est plus pris en charge.
Effectuez une mise à niveau vers Microsoft Edge pour tirer parti des dernières fonctionnalités, des mises à jour de sécurité et du support technique.
S’applique à :✅Entrepôt dans Microsoft Fabric
Warehouse in Microsoft Fabric propose des outils d’ingestion de données intégrés qui permettent aux utilisateurs d’ingérer des données dans des entrepôts à grande échelle à l’aide d’expériences sans code ou riches en code.
Vous pouvez ingérer des données dans un entrepôt à l’aide de l’une des options suivantes :
Pour déterminer l’option d’ingestion de données à utiliser, vous pouvez utiliser les critères suivants :
Note
L’instruction COPY dans l’entrepôt prend en charge uniquement les sources de données sur les comptes de stockage Azure ; les sources OneLake ne sont actuellement pas prises en charge.
L’ingestion de données pour Warehouse dans Microsoft Fabric offre un grand nombre de formats et de sources de données que vous pouvez utiliser. Chacune des options décrites inclut sa propre liste de types de connecteurs de données et de formats de données pris en charge.
Pour l’ingestion entre entrepôts, les sources de données doivent se trouver dans le même espace de travail Microsoft Fabric. Les requêtes peuvent être effectuées à l’aide d’un nommage en trois parties pour les données sources.
Par exemple, supposons qu’il y ait deux entrepôts nommés Stock et Sales dans un espace de travail. Une requête telle que la suivante crée une table dans l’entrepôt d’inventaire avec le contenu d’une table dans l’entrepôt Stock, jointe à une table dans l’entrepôt Sales :
CREATE TABLE Inventory.dbo.RegionalSalesOrders
AS
SELECT s.SalesOrders, i.ProductName
FROM Sales.dbo.SalesOrders s
JOIN Inventory.dbo.Products i
WHERE s.ProductID = i.ProductID
AND s.Region = 'West region'
L’instruction COPY (Transact-SQL) prend actuellement en charge les formats de fichiers PARQUET et CSV. Pour les sources de données, Azure Data Lake Storage (ADLS) Gen2 et Stockage Blob Azure sont actuellement pris en charge.
Les pipelines de données et les flux de données prennent en charge un large éventail de sources de données et de formats de données. Pour plus d’informations, consultez Pipelines de données et flux de données.
La fonctionnalité de commande COPY dans Warehouse dans Microsoft Fabric utilise une interface simple, flexible et rapide pour l’ingestion de données à haut débit pour les charges de travail SQL. Dans la version actuelle, nous prenons uniquement en charge le chargement de données à partir de comptes de stockage externes.
Vous pouvez également utiliser TSQL pour créer une table, puis y insérer, puis mettre à jour et supprimer des lignes de données. Les données peuvent être insérées à partir de n’importe quelle base de données dans l’espace de travail Microsoft Fabric à l’aide de requêtes inter-bases de données. Si vous souhaitez ingérer des données d’un lakehouse vers un entrepôt, vous pouvez le faire avec une requête inter-bases de données. Par exemple :
INSERT INTO MyWarehouseTable
SELECT * FROM MyLakehouse.dbo.MyLakehouseTable;
Note
Quelle que soit la manière dont vous ingérez les données dans les entrepôts, les fichiers parquet produits par la tâche d'ingestion de données seront optimisés à l'aide de l'optimisation d'écriture V-Order. V-Order optimise les fichiers Parquet pour permettre des lectures ultra-rapides sous les moteurs de calcul Microsoft Fabric tels que Power BI, SQL, Spark et autres. Les requêtes d'entrepôt bénéficient en général de temps de lecture plus rapides pour les requêtes avec cette optimisation, tout en garantissant que les fichiers parquet sont 100 % conformes à sa spécification open source. Contrairement à l’ingénierie des données Fabric, V-Order est un paramètre global dans l’entrepôt de données Fabric qui ne peut pas être désactivé. Pour plus d’informations sur V-Order, consultez Comprendre et gérer V-Order pour les entrepôts.
Événement
31 mars, 23 h - 2 avr., 23 h
Le plus grand événement d’apprentissage Fabric, Power BI et SQL. 31 mars au 2 avril. Utilisez le code FABINSIDER pour économiser 400 $.
Inscrivez-vous aujourd’huiFormation
Module
Ingestion des données à l’échelle du pétaoctet avec Azure Data Factory - Training
Ingestion des données à l’échelle du pétaoctet avec un pipeline Azure Synapse ou Azure Data Factory
Certification
Certifié Microsoft : Fabric Data Engineer Associate - Certifications
En tant qu’ingénieur données fabric, vous devez avoir une expertise en matière de modèles de chargement de données, d’architectures de données et de processus d’orchestration.