Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die hier aufgeführten Artikel enthalten Informationen zum Herstellen einer Verbindung mit der großen Auswahl an Datenquellen, BI-Tools und Entwicklertools, die Sie mit Azure Databricks verwenden können. Viele davon stehen über unser Partnersystem und unseren Partner Connect Hub zur Verfügung.
Partner Connect
Partner Connect ist eine Benutzeroberfläche, mit der validierte Lösungen schneller und einfacher in Ihre Databricks-Cluster und SQL-Lagerhäuser integriert werden können.
Weitere Informationen finden Sie unter Was ist Databricks Partner Connect?.
Datenquellen
Databricks können Daten aus einer Vielzahl von Datenformaten wie CSV, Delta Lake, JSON, Parkett, XML und anderen Formaten sowie Datenspeicheranbieter wie Amazon S3, Google BigQuery und Cloud Storage, Snowflake und anderen Anbietern lesen und schreiben.
Weitere Informationen finden Sie unter "Datenaufnahme", "Mit Datenquellen und externen Diensten verbinden" und"Datenformatoptionen".
BI-Tools
Databricks hat Integrationen mit Ihren bevorzugten BI-Tools, einschließlich Power BI, Tableau und anderen, überprüft, sodass Sie mit Daten über Databricks-Cluster und SQL-Warehouses arbeiten können, in vielen Fällen mit Low-Code- und No-Code-Oberflächen.
Eine umfassende Liste mit Verbindungsanweisungen finden Sie unter BI und Visualisierung.
Weitere ETL-Tools
Zusätzlich zum Zugriff auf alle Arten von Datenquellen bietet Databricks Integrationen mit ETL/ELT-Tools wie dbt, Prophezeiung und Azure Data Factory sowie Datenpipeline-Orchestrierungstools wie Airflow- und SQL-Datenbanktools wie DataGrip, DBeaver und SQL Workbench/J.
Anweisungen zur Verbindung finden Sie unter:
- ETL-Tools: Datenvorbereitung und -transformation
- Airflow: Orchestrieren Sie Lakeflow-Aufgaben mit Apache Airflow
- SQL-Datenbanktools: SQL-Connectors, Bibliotheken, Treiber, APIs und Tools.
IDEs und andere Entwicklertools
Databricks unterstützt Entwicklertools wie DataGrip, IntelliJ, PyCharm, Visual Studio Code und andere, mit denen Sie programmgesteuert auf Azure Databricks Compute zugreifen können, einschließlich SQL Warehouses.
Eine umfassende Liste der Tools, die Entwickler unterstützen, finden Sie unter Develop on Databricks.
Einguss
Git-Ordner auf Datenbricks bieten eine Integration auf Repositoryebene mit Ihren bevorzugten Git-Anbietern, sodass Sie Code in einem Databricks-Notizbuch entwickeln und mit einem Remote-Git-Repository synchronisieren können. Siehe Azure Databricks Git-Ordner.