Qu’est-ce qu’un lakehouse dans Microsoft Fabric ?
Microsoft Fabric Lakehouse est une plateforme d’architecture de données permettant de stocker, de gérer et d’analyser des données structurées et non structurées dans un emplacement unique. Il s’agit d’une solution flexible et évolutive qui permet aux organisations de gérer de grands volumes de données à l’aide d’une variété d’outils et de frameworks pour traiter et analyser ces données. Il s’intègre à d’autres outils de gestion et d’analytique des données pour fournir une solution complète pour l’ingénierie et l’analytique des données.
Important
Microsoft Fabric est actuellement en préversion. Certaines informations portent sur un produit en préversion susceptible d’être substantiellement modifié avant sa publication. Microsoft ne donne aucune garantie, expresse ou implicite, concernant les informations fournies ici.
Point de terminaison SQL Lakehouse
Lakehouse crée une couche de service en générant automatiquement un point de terminaison SQL et un jeu de données par défaut lors de la création. Cette nouvelle fonctionnalité de visibilité permet à l’utilisateur de travailler directement au-dessus des tables delta dans le lac pour fournir une expérience fluide et performante, de l’ingestion de données à la création de rapports.
Une distinction importante entre l’entrepôt par défaut est qu’il s’agit d’une expérience en lecture seule et ne prend pas en charge la surface T-SQL complète d’un entrepôt de données transactionnel. Il est important de noter que seules les tables au format Delta sont disponibles dans le point de terminaison SQL. Parquet, CSV et d’autres formats ne peuvent pas être interrogés à l’aide du point de terminaison SQL. Si vous ne voyez pas votre table, convertissez-la au format Delta.
En savoir plus sur le point de terminaison SQL ici
Découverte et inscription automatiques de tables
La découverte et l’inscription automatiques de tables est une fonctionnalité de Lakehouse qui fournit une expérience de fichier to table entièrement managée pour les ingénieurs des données et les scientifiques des données. Vous pouvez déposer un fichier dans la zone managée de Lakehouse et le fichier est automatiquement validé pour les formats structurés pris en charge, qui ne sont actuellement que des tables Delta, et inscrit dans le metastore avec les métadonnées nécessaires telles que les noms de colonnes, les formats, la compression et bien plus encore. Vous pouvez ensuite référencer le fichier sous forme de table et utiliser la syntaxe SparkSQL pour interagir avec les données.
Interaction avec l’élément Lakehouse
Un ingénieur données peut interagir avec le lakehouse et les données dans le lakehouse de plusieurs manières :
Explorateur Lakehouse : l’explorateur est la main page d’interaction Lakehouse. Vous pouvez charger des données dans votre Lakehouse, explorer les données dans lakehouse à l’aide de l’explorateur d’objets, définir des étiquettes & MIP différentes choses. En savoir plus sur l’expérience de l’explorateur : Navigation dans l’explorateur Lakehouse.
Notebooks : les ingénieurs données peuvent utiliser le notebook pour écrire du code pour lire, transformer et écrire directement dans Lakehouse sous forme de tables et/ou de dossiers. Vous pouvez en savoir plus sur la façon de tirer parti des notebooks pour Lakehouse : Explorer les données de votre Lakehouse avec un bloc-notes et Comment utiliser un bloc-notes pour charger des données dans votre Lakehouse.
Pipelines : les ingénieurs données peuvent utiliser des outils d’intégration de données tels que l’outil de copie de pipeline pour extraire des données d’autres sources et atterrir dans lakehouse. Pour plus d’informations sur l’utilisation de l’activité de copie, consultez Guide pratique pour copier des données à l’aide de l’activité de copie.
Définitions de travaux Apache Spark : les ingénieurs données peuvent développer des applications robustes et orchestrer l’exécution de travaux Spark compilés dans Java, Scala et Python. En savoir plus sur les travaux Spark : Qu’est-ce qu’une définition de travail Apache Spark ?.
Flux de données Gen 2 : les ingénieurs de données peuvent tirer parti des flux de données Gen 2 pour ingérer et préparer leurs données. Pour plus d’informations sur le chargement de données à l’aide de flux de données , créez votre premier flux de données pour obtenir et transformer des données.
En savoir plus sur les différentes façons de charger des données dans votre lakehouse : Obtenir une expérience de données pour Lakehouse.
Étapes suivantes
Dans cette vue d’ensemble, vous obtenez une compréhension de base d’un lakehouse. Passez à l’article suivant pour découvrir comment créer et bien démarrer avec votre propre lakehouse :
- Pour commencer à utiliser lakehouse, consultez Création d’un lakehouse.