Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les articles répertoriés ici fournissent des informations sur la façon de se connecter à l’assortiment important de sources de données, d’outils décisionnels et d’outils de développement que vous pouvez utiliser avec Azure Databricks. La plupart d’entre eux sont disponibles via notre système de partenaires et notre hub Partner Connect.
Partner Connect
Partner Connect est une interface utilisateur qui permet aux solutions validées d’intégrer plus rapidement et facilement vos clusters Databricks et vos entrepôts SQL.
Pour plus d’informations, consultez Qu’est-ce que Databricks Partner Connect ?.
Sources de données
Databricks peut lire et écrire des données dans divers formats de données tels que CSV, Delta Lake, JSON, Parquet, XML et d’autres formats, ainsi que des fournisseurs de stockage de données tels qu’Amazon S3, Google BigQuery et Cloud Storage, Snowflake et d’autres fournisseurs.
Consultez l’ingestion des données, Se connecter aux sources de données et aux services externes et options de format de données.
Outils BI
Databricks a validé des intégrations avec vos outils de Business Intelligence favoris, notamment Power BI, Tableau et d'autres, ce qui vous permet d'utiliser des données via les clusters Databricks et les entrepôts SQL, dans de nombreux cas avec peu ou pas de code.
Pour obtenir une liste complète, avec des instructions de connexion, consultez BI et visualisation.
Autres outils ETL
Outre l’accès à toutes sortes de sources de données, Databricks fournit des intégrations avec des outils ETL/ELT tels que dbt, Prophecy et Azure Data Factory, ainsi que des outils d’orchestration de pipeline de données tels que Airflow et des outils de base de données SQL tels que DataGrip, DBeaver et SQL Workbench/J.
Pour obtenir des instructions de connexion, consultez :
- Outils ETL : Préparation et transformation des données
- Airflow : Orchestrer les tâches Lakeflow avec Apache Airflow
- Outils de base de données SQL : connecteurs, bibliothèques, pilotes, API et outils SQL.
IDEs et autres outils de développement
Databricks prend en charge les outils de développement tels que DataGrip, IntelliJ, PyCharm, Visual Studio Code et d’autres, qui vous permettent d’accéder par programmation au calcul Azure Databricks, notamment aux entrepôts SQL.
Pour obtenir la liste complète des outils qui prennent en charge les développeurs, consultez Développer sur Databricks.
Git
Les dossiers Git Databricks fournissent une intégration au niveau du référentiel avec vos fournisseurs Git favoris. Vous pouvez donc développer du code dans un notebook Databricks et le synchroniser avec un référentiel Git distant. Consultez les dossiers Git Azure Databricks.