Share via


gennaio 2018

Le versioni vengono gestite in staging. L'account Databricks potrebbe non essere aggiornato fino a una settimana dopo la data di rilascio iniziale.

Punti di montaggio per contenitori di Archiviazione BLOB di Azure e Data Lake Store

16-23 gennaio 2018: versione 2.63

Sono state fornite istruzioni per il montaggio di contenitori di archiviazione BLOB di Azure e di Data Lake Stores tramite il file system di Databricks (DBFS). In questo modo tutti gli utenti nella stessa area di lavoro possono accedere al contenitore di archiviazione BLOB o a Data Lake Store (o alla cartella all'interno del contenitore o dell'archivio) tramite il punto di montaggio. DBFS gestisce le credenziali usate per accedere a un contenitore di archiviazione BLOB montato o a Data Lake Store e gestisce automaticamente l'autenticazione con l'archiviazione BLOB di Azure o Data Lake Store in background.

Il montaggio di contenitori di archiviazione BLOB e archivi Data Lake richiede Databricks Runtime 4.0 e versioni successive. Dopo aver montato un contenitore o un archivio, è possibile usare Runtime 3.4 o versione successiva per accedere al punto di montaggio.

Per altre informazioni, vedere Connessione ad Azure Data Lake Archiviazione Gen2 e Archiviazione BLOB e accesso ad Azure Data Lake Archiviazione Gen1 da Azure Databricks.

Tag dei cluster

4-11 gennaio 2018: versione 2.62

È ora possibile specificare i tag del cluster che verranno propagati a tutte le risorse di Azure (VM, dischi, schede di interfaccia di rete e così via) associate a un cluster. Oltre ai tag forniti dall'utente, le risorse verranno contrassegnate automaticamente con il nome del cluster, l'ID cluster e il nome utente dell'autore del cluster.

Per altre informazioni, vedere Tag .

Controllo di accesso alle tabelle per SQL e Python (anteprima privata)

4-11 gennaio 2018: versione 2.62

Nota

Questa funzionalità è disponibile in anteprima privata. Contattare il responsabile dell'account per richiedere l'accesso. Questa funzionalità richiede anche Databricks Runtime 3.5+.

L'anno scorso è stato introdotto il controllo di accesso agli oggetti dati per gli utenti SQL. Oggi siamo lieti di annunciare l'anteprima privata di Table Controllo di accesso (ACL) per gli utenti di SQL e Python. Con Table Controllo di accesso è possibile limitare l'accesso a oggetti a protezione diretta come tabelle, database, viste o funzioni. È anche possibile fornire un controllo di accesso con granularità fine ,ad esempio alle righe e alle colonne che corrispondono a condizioni specifiche, impostando le autorizzazioni per le viste derivate contenenti query arbitrarie.

Per altre informazioni, vedere Privilegi metastore Hive e oggetti a protezione diretta (legacy).

Esportazione dei risultati dell'esecuzione di un processo del notebook tramite l'API

4-11 gennaio 2018: versione 2.62

Per migliorare la possibilità di condividere e collaborare ai risultati dei processi, è ora disponibile un nuovo endpoint API Processi, jobs/runs/export che consente di recuperare la rappresentazione HTML statica dei risultati di esecuzione di un processo notebook nella visualizzazione del codice e del dashboard.

Per altre informazioni, vedere Esecuzioni di esportazione .

Apache Flow 1.9.0 include l'integrazione di Databricks

2 gennaio 2018

L'anno scorso è stata rilasciata una funzionalità di anteprima in Airflow, una soluzione popolare per la gestione della pianificazione ETL, che consente ai clienti di creare in modo nativo attività che attivano l'esecuzione di Databricks in un DAG Airflow. Siamo lieti di annunciare che queste integrazioni sono state rilasciate pubblicamente nella versione 1.9.0 di Airflow.

Per altre informazioni, vedere Orchestrare i processi di Azure Databricks con Apache Airflow .