Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Gli articoli elencati di seguito forniscono informazioni su come connettersi all'ampia gamma di origini dati, strumenti di business intelligence e strumenti di sviluppo che è possibile usare con Azure Databricks. Molti di questi sono disponibili tramite il nostro sistema di partner e l'hub partner Connect.
Partner Connect
Partner Connect è un'interfaccia utente che consente alle soluzioni convalidate di integrarsi più rapidamente e facilmente con i cluster Databricks e i data warehouse SQL.
Per altre informazioni, vedere Che cos'è Databricks Partner Connect?.
Origini dati
Databricks può leggere e scrivere dati in diversi formati di dati, ad esempio CSV, Delta Lake, JSON, Parquet, XML e altri formati, nonché provider di archiviazione dati come Amazon S3, Google BigQuery e Cloud Storage, Snowflake e altri provider.
Vedere Inserimento dati, Connettersi a origini dati e servizi esterni e opzioni formato dati.
Strumenti di Business Intelligence
Databricks ha convalidato le integrazioni con gli strumenti di business intelligence preferiti, tra cui Power BI, Tableau e altri, che consentono di usare i dati tramite cluster Databricks e sql warehouse, in molti casi con esperienze con poco codice e senza codice.
Per un elenco completo, con le istruzioni di connessione, vedere BI e visualizzazione.
Altri strumenti ETL
Oltre ad accedere a tutti i tipi di origini dati, Databricks offre integrazioni con strumenti ETL/ELT come dbt, Prophecy e Azure Data Factory, nonché strumenti di orchestrazione della pipeline di dati come Airflow e strumenti di database SQL come DataGrip, DBeaver e SQL Workbench/J.
Per istruzioni di connessione, vedere:
- Strumenti ETL: preparazione e trasformazione dei dati
- Flusso di aria: orchestrare i processi Lakeflow con Apache Airflow
- Strumenti di database SQL: connettori SQL, librerie, driver, API e strumenti.
IDE e altri strumenti di sviluppo
Databricks supporta strumenti di sviluppo come DataGrip, IntelliJ, PyCharm, Visual Studio Code e altri, che consentono di accedere a livello di codice all'ambiente di calcolo di Azure Databricks, inclusi i data warehouse SQL.
Per un elenco completo degli strumenti che supportano gli sviluppatori, vedere Sviluppare in Databricks.
Git
Le cartelle Git di Databricks offrono l'integrazione a livello di repository con i provider Git preferiti, in modo da poter sviluppare codice in un notebook di Databricks e sincronizzarlo con un repository Git remoto. Vedere Integrazione git per le cartelle Git di Databricks.