Condividi tramite


Impostazioni delle funzionalità del driver per il driver JDBC di Databricks (Simba)

Annotazioni

Questa pagina si applica alle versioni del driver JDBC di Databricks precedenti alla versione 3. Per Databricks JDBC Driver versione 3 e successive, vedere Driver JDBC di Databricks.

Questa pagina descrive come configurare impostazioni speciali e avanzate delle funzionalità del driver per il driver JDBC di Databricks.

Il driver JDBC di Databricks offre le impostazioni speciali e avanzate seguenti per le funzionalità del driver.

Supporto delle interrogazioni ANSI SQL-92 in JDBC

I driver JDBC Spark legacy accettano query SQL in dialetto ANSI SQL-92 e le traducono in Databricks SQL prima di inviarle al server.

Se l'applicazione genera direttamente Databricks SQL o usa la sintassi SQL-92 non ANSI specifica di Azure Databricks, impostare UseNativeQuery=1 nella configurazione della connessione. Questa impostazione passa le query SQL verbatim ad Azure Databricks senza traduzione.

Catalogo e schema predefiniti

Per specificare il catalogo e lo schema predefiniti, aggiungere ConnCatalog=<catalog-name>;ConnSchema=<schema-name> all'URL di connessione JDBC.

Tag di ricerca per monitoraggio

Importante

Questa funzionalità si trova in anteprima privata. Per richiedere l'accesso, contattare il team di account.

Allegare tag chiave-valore alle query SQL per scopi di rilevamento e analisi. I tag di query vengono visualizzati nella system.query.history tabella per l'identificazione e l'analisi delle query.

Per aggiungere etichette di query alla connessione, includere il parametro ssp_query_tags nell'URL di connessione JDBC:

jdbc:databricks://<server-hostname>:443;httpPath=<http-path>;ssp_query_tags=key1:value1,key2:value2

Definire i tag di query come coppie chiave-valore delimitate da virgole, in cui ogni chiave e valore è separato da due punti. Ad esempio: key1:value1,key2:value2.

Estrarre risultati di query di grandi dimensioni in JDBC

Per ottenere prestazioni ottimali quando si estraggono risultati di query di grandi dimensioni, usare la versione più recente del driver JDBC, che include le ottimizzazioni seguenti.

Serializzazione freccia in JDBC

Il driver JDBC versione 2.6.16 e successive supporta un formato di serializzazione dei risultati delle query ottimizzato che usa Apache Arrow.

Recupero dati dal cloud in JDBC

Il driver JDBC versione 2.6.19 e successive supporta Cloud Fetch, una funzionalità che recupera i risultati delle query tramite l'archiviazione cloud configurata nella distribuzione di Azure Databricks.

Quando si esegue una query, Azure Databricks carica i risultati in un percorso di archiviazione DBFS interno come file serializzati in formato Arrow di dimensione fino a 20 MB. Al termine della query, il driver invia richieste di recupero e Azure Databricks restituisce firme di accesso condiviso ai file caricati. Il driver usa quindi questi URL per scaricare i risultati direttamente da DBFS.

Il recupero cloud si applica solo ai risultati delle query superiori a 1 MB. Il driver recupera risultati più piccoli direttamente da Azure Databricks.

Azure Databricks raccoglie automaticamente i file accumulati, contrassegnandoli per l'eliminazione dopo 24 ore e eliminandoli definitivamente dopo altre 24 ore.

Per altre informazioni sull'architettura di recupero cloud, vedere Come è stata raggiunta la connettività a larghezza di banda elevata con gli strumenti di BUSINESS Intelligence.

Abilitazione della registrazione

Per abilitare la registrazione nel driver JDBC, impostare la LogLevel proprietà su un valore compreso tra 1 (solo eventi gravi) e 6 (tutte le attività del driver). Impostare la LogPath proprietà sul percorso completo della cartella in cui si desidera salvare i file di log.

Per altre informazioni, vedere Configuring Logging in the Databricks JDBC Driver Guide (Configurazione della registrazione in Databricks JDBC Driver Guide).