Compartir a través de


Introducción a las integraciones de Azure Databricks

Los artículos que se enumeran aquí proporcionan información sobre cómo conectarse a la gran variedad de orígenes de datos, herramientas de BI y herramientas de desarrollo que puede usar con Azure Databricks. Muchos de estos están disponibles a través de nuestro sistema de asociados y nuestro centro de Partner Connect.

Partner Connect

Partner Connect es una interfaz de usuario que permite que las soluciones validadas se integren de forma más rápida y sencilla con los clústeres de Databricks y los almacenes de SQL.

Para obtener más información, consulte ¿Qué es Databricks Partner Connect?.

Orígenes de datos

Databricks puede leer y escribir datos en una variedad de formatos de datos como CSV, Delta Lake, JSON, Parquet, XML y otros formatos, así como proveedores de almacenamiento de datos como Amazon S3, Google BigQuery y Cloud Storage, Snowflake y otros proveedores.

Consulte Ingesta de datos, Conexión a orígenes de datos y servicios externos y Opciones de formato de datos.

Herramientas de BI

Databricks ha validado las integraciones con sus herramientas de BI favoritas, como Power BI, Tableau y otros, lo que le permite trabajar con datos a través de clústeres de Databricks y almacenes de SQL, en muchos casos con experiencias de código bajo y sin código.

Para obtener una lista completa, con instrucciones de conexión, consulte BI y visualización.

Otras herramientas de ETL

Además del acceso a todos los tipos de orígenes de datos, Databricks proporciona integraciones con herramientas ETL/ELT como dbt, Prophecy y Azure Data Factory, así como herramientas de orquestación de canalizaciones de datos como Airflow y SQL Database, como DataGrip, DBeaver y SQL Workbench/J.

Para obtener instrucciones de conexión, consulte:

IDE y otras herramientas de desarrollo

Databricks admite herramientas de desarrollo como DataGrip, IntelliJ, PyCharm, Visual Studio Code y otros, que permiten acceder mediante programación al proceso de Azure Databricks, incluidos los almacenes de SQL.

Para obtener una lista completa de las herramientas que admiten a los desarrolladores, consulte Desarrollo en Databricks.

Git

Las carpetas de Git de Databricks proporcionan integración de nivel de repositorio con sus proveedores de Git favoritos, por lo que puede desarrollar código en un cuaderno de Databricks y sincronizarlo con un repositorio de Git remoto. Consulte Carpetas de Git de Azure Databricks.