Dela via


Inställningar för drivrutinsfunktioner för Databricks JDBC-drivrutinen

I den här artikeln beskrivs hur du konfigurerar särskilda och avancerade kapacitetsinställningar för drivrutiner för Databricks JDBC-drivrutinen.

Databricks JDBC-drivrutinen innehåller följande särskilda och avancerade kapacitetsinställningar för drivrutiner.

Stöd för ANSI SQL-92-frågor i JDBC

Äldre Spark JDBC-drivrutiner accepterar SQL-frågor i ANSI SQL-92-dialekt och översätter frågorna till Databricks SQL-dialekten innan de skickas till servern. Men om ditt program genererar Databricks SQL direkt eller om ditt program använder någon sql-syntax som inte är ANSI SQL-92 som är specifik för Azure Databricks rekommenderar Databricks att du anger UseNativeQuery=1 som en anslutningskonfiguration. Med den inställningen skickar drivrutinen SQL-frågorna ordagrant till Azure Databricks.

Standardkatalog och schema

Om du vill ange standardkatalogen och schemat lägger du till ConnCatalog=<catalog-name>;ConnSchema=<schema-name> I JDBC-anslutnings-URL:en.

Extrahera stora frågeresultat i JDBC

För att uppnå bästa prestanda när du extraherar stora frågeresultat använder du den senaste versionen av JDBC-drivrutinen, som innehåller följande optimeringar.

Pilserialisering i JDBC

JDBC-drivrutinsversion 2.6.16 och senare stöder ett optimerat frågeresultats serialiseringsformat som använder Apache Arrow.

Cloud Fetch i JDBC

JDBC-drivrutinen version 2.6.19 och senare stöder Cloud Fetch, en funktion som hämtar frågeresultat via molnlagringen som har konfigurerats i din Azure Databricks-distribution.

Frågeresultat laddas upp till en intern DBFS-lagringsplats som Pil-serialiserade filer på upp till 20 MB. När drivrutinen skickar hämtningsbegäranden efter att frågan har slutförts genererar och returnerar Azure Databricks signaturer för delad åtkomst till de uppladdade filerna. JDBC-drivrutinen använder sedan URL:erna för att ladda ned resultatet direkt från DBFS.

Cloud Fetch används endast för frågeresultat som är större än 1 MB. Mindre resultat hämtas direkt från Azure Databricks.

Azure Databricks samlar automatiskt in de ackumulerade filer som har markerats för borttagning efter 24 timmar. Dessa markerade filer tas bort helt efter ytterligare 24 timmar.

Mer information om cloud fetch-arkitekturen finns i How We Achieved High-bandwidth Connectivity With BI Tools (Hur vi uppnådde anslutning med hög bandbredd med BI-verktyg).

Aktivera loggning

Om du vill aktivera loggning i JDBC-drivrutinen anger du LogLevel egenskapen från 1 för att logga endast allvarliga händelser genom 6 att logga all drivrutinsaktivitet. Ange egenskapen LogPath till den fullständiga sökvägen till mappen där du vill spara loggfiler.

Mer information Configuring Logging finns i avsnittet i drivrutinsguiden för Databricks JDBC.