Treiberfähigkeits-Einstellungen für den Databricks JDBC-Treiber (Simba)

Hinweis

Diese Seite bezieht sich auf VERSIONEN DES TREIBERs (Legacy) unter Version 3. Informationen zu Databricks DRIVER Version 3 und höher finden Sie unter Databricks DRIVER.

Auf dieser Seite wird beschrieben, wie Sie spezielle und erweiterte Treiberfähigkeitsoptionen für den Databricks JDBC-Treiber konfigurieren.

Der Databricks JDBC-Treiber stellt die folgenden speziellen und erweiterten Einstellungen für Treiberfunktionen bereit.

Unterstützung für ANSI SQL-92-Abfragen in JDBC

Ältere Spark JDBC-Treiber akzeptieren SQL-Abfragen im „ANSI SQL-92“-Dialekt und konvertieren sie in Databricks SQL, bevor sie an den Server gesendet werden.

Wenn Ihre Anwendung Databricks SQL direkt generiert oder eine nicht-ANSI SQL-92-Syntax verwendet, die für Azure Databricks spezifisch ist, legen Sie UseNativeQuery=1 in Ihrer Verbindungskonfiguration fest. Diese Einstellung übergibt SQL-Abfragen an Azure Databricks ohne Übersetzung.

Standardkatalog und -schema

Um den Standardkatalog und das Standardschema anzugeben, fügen Sie der JDBC-Verbindungs-URL ConnCatalog=<catalog-name>;ConnSchema=<schema-name> hinzu.

Abfragetags für die Nachverfolgung

Von Bedeutung

Dieses Feature befindet sich in Privater Vorschau. Wenden Sie sich an Ihr Kontoteam, um den Zugriff anzufordern.

Fügen Sie Schlüsselwert-Tags zu Tracking- und Analysezwecken an Ihre SQL-Abfragen an. Abfragetags werden in der system.query.history Tabelle für die Abfrageidentifikation und -analyse angezeigt.

Um Ihrer Verbindung Abfragetags hinzuzufügen, fügen Sie den ssp_query_tags-Parameter in die JDBC-Verbindungs-URL ein.

jdbc:databricks://<server-hostname>:443;httpPath=<http-path>;ssp_query_tags=key1:value1,key2:value2

Definieren Sie Abfragetags als kommagetrennte Schlüsselwertpaare, wobei jeder Schlüssel und Wert durch einen Doppelpunkt getrennt ist. Beispiel: key1:value1,key2:value2.

Extrahieren umfangreicher Abfrageergebnisse in JDBC

Verwenden Sie die neueste Version des JDBC-Treibers mit den folgenden Optimierungen, um beim Extrahieren umfangreicher Abfrageergebnisse die beste Leistung zu erzielen.

Arrow-Serialisierung in JDBC

Ab Version 2.6.16 unterstützt der JDBC-Treiber ein optimiertes Serialisierungsformat für Abfrageergebnisse, das Apache Arrow verwendet.

Cloud-Abruf in JDBC

VERSION 2.6.19 und höher unterstützt Cloud Fetch, eine Funktion, die Abfrageergebnisse über den in Ihrer Azure Databricks Bereitstellung konfigurierten Cloudspeicher abruft.

Wenn Sie eine Abfrage ausführen, speichert Azure Databricks die Ergebnisse im Cloudspeicher Ihres Arbeitsbereichs als Pfeil serialisierte Dateien von bis zu 20 MB. Nach Abschluss der Abfrage sendet der Treiber Abrufanforderungen und Azure Databricks gibt shared access signature (SAS)-URLs an die Ergebnisdateien zurück. Der Treiber verwendet dann diese URLs, um Ergebnisse direkt aus Azure Speicher herunterzuladen.

Cloud Fetch gilt nur für Abfrageergebnisse, die größer als 1 MB sind. Der Treiber ruft kleinere Ergebnisse direkt aus Azure Databricks ab.

Azure Databricks automatisch gesammelte Dateien sammelt, indem sie nach 24 Stunden zum Löschen markiert und 24 Stunden später endgültig entfernt werden.

Netzwerkvoraussetzungen

Wenn Ihr Netzwerk privat ist, müssen Sie die folgenden Einstellungen konfigurieren, damit Cloud Fetch funktioniert:

Um Cloud Fetch zu deaktivieren, legen Sie in Ihrer Verbindungskonfiguration fest EnableQueryResultDownload=0 .

Langsame Downloads diagnostizieren

Legen Sie LogLevel diese Eigenschaft auf 4 (INFO) und LogPath auf den vollständigen Pfad eines Protokollordners fest, um Die Downloadgeschwindigkeitsmetriken für Cloud Fetch anzuzeigen. Der Treiber protokolliert die Downloadgeschwindigkeit pro Block, sodass große Resultsets mehrere Protokollzeilen generieren. Der Fahrer protokolliert auch eine Warnung, wenn die Geschwindigkeit unter ca. 1 MB/s fällt. Dieses Feature ist in DEN Versionen des TREIBERs FABRIC (Simba) verfügbar, die nach Dezember 2025 veröffentlicht wurden.

Wenn Downloads langsam oder verzögert sind, können SAS-Token ablaufen, bevor der Treiber das Herunterladen aller Ergebnisdateien abgeschlossen hat. Überprüfen Sie die Bandbreiteneinschränkung oder Netzwerküberlastung zwischen dem Client und Azure Blob Storage.

Aktivieren der Protokollierung

Wenn Sie die Protokollierung im DRIVER-Treiber aktivieren möchten, legen Sie die LogLevel Eigenschaft auf einen Wert zwischen 1 (nur schwerwiegende Ereignisse) und 6 (alle Treiberaktivitäten) fest. Legen Sie die LogPath Eigenschaft auf den vollständigen Pfad des Ordners fest, in dem Protokolldateien gespeichert werden sollen.

Weitere Informationen finden Sie im Konfigurieren der Protokollierung im Databricks JDBC Driver Guide.