Azure Cosmos DB

Wichtig

Diese Dokumentation wurde eingestellt und wird unter Umständen nicht aktualisiert. Weitere Informationen finden Sie unter das offizielle Cosmos DB Spark Connector Github-Repository.

Azure Cosmos DB ist eine global vertriebene Datenbank von Microsoft mit mehreren Modellen. Azure Cosmos DB ermöglicht es Ihnen, Durchsatz und Speicher elastisch und unabhängig voneinander über eine beliebige Anzahl von geografischen Azure-Regionen hinweg zu skalieren. Azure Cosmos DB bietet Ihnen mit umfassenden Vereinbarungen zum Servicelevel (Service Level Agreements, SLAs) Durchsatz-, Wartezeit-, Verfügbarkeits- und Konsistenzgarantien. APIs für die folgenden Datenmodelle werden von Azure Cosmos DB bereitgestellt, und zwar mit SDKs, die in verschiedenen Sprachen verfügbar sind:

  • SQL-API
  • MongoDB-API
  • Cassandra-API
  • Graph-API (Gremlin)
  • Tabelle-API

In diesem Artikel wird erläutert, wie Sie mithilfe von Azure Databricks Daten aus der Azure Cosmos DB lesen und in die Azur Cosmos DB schreiben. Weitere aktuelle Details zu Azure Cosmos DB finden Sie unter Beschleunigen der Big Data-Analyse mithilfe des Connectors, der Apache Spark mit der Azure Cosmos DB verbindet.

Ressourcen:

Wichtig

Dieser Connector unterstützt die Haupt-(SQL)-API von Azure Cosmos DB. Verwenden Sie für die Cosmos DB für MongoDB-API den MongoDB-Spark-Connector. Für die Cosmos DB-Cassandra-API verwenden Sie den Cassandra Spark-Connector.

Erstellen und Anfügen erforderlicher Bibliotheken

  1. Laden Sie die neueste azure-cosmosdb-spark-Bibliothek für die Version von Apache Spark herunter, die Sie ausführen.
  2. Laden Sie die heruntergeladenen JAR-Dateien in Databricks hoch. Weitere Informationen finden Sie unter Bibliotheken.
  3. Installieren Sie die hochgeladenen Bibliotheken in Ihrem Databricks-Cluster.