Freigeben über


Herstellen einer Verbindung mit StreamSets

Wichtig

Dieses Feature befindet sich in der Public Preview.

StreamSets unterstützt Sie beim Verwalten und Überwachen Ihres Datenflusses während des gesamten Lebenszyklus. Mit der nativen Integration von StreamSets in Azure Databricks und Delta Lake können Sie Daten aus verschiedenen Quellen pullen und Ihre Pipelines einfach verwalten.

Eine allgemeine Demonstration von StreamSets finden Sie im folgenden YouTube-Video (10 Minuten).

Hier finden Sie die Schritte für die Verwendung von StreamSets mit Azure Databricks.

Schritt 1: Generieren eines persönlichen Databricks-Zugriffstokens

StreamSets authentifiziert sich bei Azure Databricks mithilfe eines persönlichen Azure Databricks-Zugriffstokens.

Hinweis

Als bewährte Methode für die Sicherheit empfiehlt Databricks, dass Sie bei der Authentifizierung mit automatisierten Tools, Systemen, Skripten und Anwendungen persönliche Zugriffstoken verwenden, die zu Dienstprinzipalen und nicht zu Benutzern des Arbeitsbereichs gehören. Informationen zum Erstellen von Token für Dienstprinzipale finden Sie unter Verwalten von Token für einen Dienstprinzipal.

Schritt 2: Einrichten eines Clusters zur Unterstützung von Integrationsanforderungen

StreamSets schreibt Daten in einen Azure Data Lake Storage-Pfad, und der Azure Databricks-Integrationscluster liest Daten von diesem Speicherort. Daher erfordert der Integrationscluster sicheren Zugriff auf den Azure Data Lake Storage-Pfad.

Sicherer Zugriff auf einen Azure Data Lake Storage-Pfad

Nutzen Sie für einen sicheren Zugriff auf Daten in Azure Data Lake Storage (ADLS) einen Zugriffsschlüssel für das Azure-Speicherkonto (empfohlen) oder einen Microsoft Entra ID-Dienstprinzipal.

Verwenden eines Zugriffsschlüssels für das Azure-Speicherkonto

Sie können einen Zugriffsschlüssel für das Speicherkonto auf dem Integrationscluster als Teil der Spark-Konfiguration konfigurieren. Stellen Sie sicher, dass das Speicherkonto Zugriff auf den ADLS-Container und das Dateisystem besitzt, die für das Staging von Daten verwendet werden, sowie auf den ADLS-Container und das Dateisystem, in denen Sie die Delta Lake-Tabellen schreiben möchten. Führen Sie die unter Herstellen einer Verbindung zu Azure Data Lake Storage Gen2 und Blob Storage beschriebenen Schritte aus, um den Integrationscluster für die Verwendung des Schlüssels zu konfigurieren.

Verwenden eines Microsoft Entra ID-Dienstprinzipals

Im Rahmen der Spark-Konfiguration können Sie einen Dienstprinzipal auf dem Azure Databricks-Integrationscluster konfigurieren. Stellen Sie sicher, dass der Dienstprinzipal Zugriff auf den ADLS-Container besitzt, der für das Staging von Daten verwendet wird, sowie auf den ADLS-Container, in den Sie die Delta-Tabellen schreiben möchten. Führen Sie die unter Zugreifen auf Azure Data Lake Storage Gen2 mit einem Dienstprinzipal beschriebenen Schritte aus, um den Integrationscluster für die Verwendung des Dienstprinzipals zu konfigurieren.

Angeben der Clusterkonfiguration

  1. Legen Sie den Clustermodus auf Standard fest.

  2. Legen Sie Databricks Runtime Version (Databricks Runtime-Version) auf Runtime 6.3 oder höher fest.

  3. Aktivieren Sie optimierte Schreibvorgänge und automatische Komprimierung, indem Sie Ihrer Spark-Konfiguration die folgenden Eigenschaften hinzufügen:

    spark.databricks.delta.optimizeWrite.enabled true
    spark.databricks.delta.autoCompact.enabled true
    
  4. Konfigurieren Sie Ihren Cluster je nach Ihren Integrations- und Skalierungsanforderungen.

Ausführliche Informationen zur Clusterkonfiguration finden Sie unter Computekonfigurationsreferenz.

Weitere Informationen zum Abrufen der JDBC-URL und des HTTP-Pfads finden Sie unter Abrufen von Verbindungsdetails für eine Azure Databricks-Computeressource.

Schritt 3: Abrufen der JDBC- und ODBC-Verbindungsdetails zum Herstellen einer Verbindung mit einem Cluster

Zum Verbinden eines Azure Databricks-Clusters mit StreamSets benötigen Sie die folgenden JDBC/ODBC-Verbindungseigenschaften:

  • JDBC-URL
  • HTTP-Pfad

Schritt 4: Abrufen von StreamSets für Azure Databricks

Registrieren Sie sich für StreamSets für Databricks, wenn Sie noch nicht über ein StreamSets-Konto verfügen. Sie können kostenlos loslegen und ein Upgrade durchführen, wenn Sie bereit sind. Weitere Informationen finden Sie unter StreamSets DataOps-Plattform – Preise.

Schritt 5: Verwenden von StreamSets zum Laden von Daten in Delta Lake

Beginnen Sie mit einer Beispielpipeline, oder sehen Sie sich StreamSets-Lösungen an, um zu erfahren, wie Sie eine Pipeline erstellen, die Daten in Delta Lake erfasst.

Zusätzliche Ressourcen

Unterstützung