Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Con la federazione delle query, le query vengono inoltrate al database remoto usando le API JDBC. La query viene eseguita sia in Databricks che usando il calcolo remoto. La federazione delle query viene usata per origini come MySQL, PostgreSQL, BigQuery, Redshift, Teradata e altro ancora.
Perché usare Lakehouse Federation?
Il lakehouse sottolinea l'archiviazione centrale dei dati per ridurre la ridondanza e l'isolamento dei dati. L'organizzazione potrebbe avere numerosi sistemi dati nell'ambiente di produzione e potrebbe essere necessario eseguire query sui dati nei sistemi connessi per diversi motivi:
- Creazione di report su richiesta.
- Lavoro di progetto pilota.
- Fase esplorativa delle nuove pipeline ETL o dei nuovi report ETL.
- Supporto dei carichi di lavoro durante la migrazione incrementale.
In ognuno di questi scenari, la federazione delle query consente di ottenere informazioni più rapide, perché è possibile eseguire query sui dati sul posto ed evitare l'elaborazione ETL complessa e dispendiosa in termini di tempo.
La federazione delle query è destinata ai casi d'uso in cui:
- Non si vogliono inserire dati in Azure Databricks.
- Si vuole che le query sfruttano le risorse di calcolo nel sistema di database esterno.
- Si vogliono ottenere i vantaggi delle interfacce e della governance dei dati di Unity Catalog, tra cui controllo di accesso con granularità fine, derivazione dei dati e ricerca.
Federazione di query e Lakeflow Connect
La federazione delle query consente di eseguire query su origini dati esterne senza spostare i dati. Databricks consiglia l'inserimento usando connettori gestiti perché vengono ridimensionati per supportare volumi di dati elevati, query a bassa latenza e limiti delle API di terze parti. Tuttavia, è possibile eseguire query sui dati senza spostarli. Quando è possibile scegliere tra connettori di inserimento gestiti e federazione di query, opta per la federazione di query per la reportistica ad hoc o per la prova di concetto sulle pipeline ETL.
Panoramica della configurazione della federazione delle query
Per rendere disponibile un set di dati per l'esecuzione di query di sola lettura tramite Lakehouse Federation, creare quanto segue:
- Una connessione, un oggetto a protezione diretta in Unity Catalog che specifica un percorso e le credenziali per l'accesso a un sistema di database esterno.
- Un catalogo esterno, un oggetto a protezione diretta in Unity Catalog che esegue il mirroring di un database in un sistema dati esterno, consentendo di eseguire query di sola lettura su tale sistema di dati nell'area di lavoro di Azure Databricks, gestendo l'accesso tramite Unity Catalog.
Origini dati supportate
La federazione di query supporta le connessioni alle fonti seguenti:
- MySQL
- PostgreSQL
- Teradata
- Oracle
- Amazon Redshift
- Salesforce Data 360
- Snowflake
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Google BigQuery
- Databricks
Requisiti di connessione
Requisiti dell'area di lavoro:
- Area di lavoro attivata per il catalogo Unity.
Requisiti di calcolo:
- Connettività di rete dalla risorsa di calcolo ai sistemi di database di destinazione. Vedi Raccomandazioni sulla rete per Lakehouse Federation.
- Il calcolo di Azure Databricks deve usare Databricks Runtime 13.3 LTS o versione successiva e standard o modalità di accesso dedicato .
- I SQL warehouse devono essere pro o serverless e devono usare la versione 2023.40 o successiva.
Autorizzazioni necessarie:
- Per creare una connessione, è necessario essere amministratore del metastore o un utente con il privilegio
CREATE CONNECTIONnel metastore Unity Catalog collegato all'area di lavoro. - Per creare un catalogo straniero, è necessario avere il permesso
CREATE CATALOGsul metastore ed essere il proprietario della connessione o avere il privilegioCREATE FOREIGN CATALOGsulla connessione.
In ogni sezione basata su attività che segue vengono specificati requisiti di autorizzazione aggiuntivi.
Crea una connessione
Una connessione specifica un percorso e le credenziali per l'accesso a un sistema di database esterno. Per creare una connessione, è possibile usare Catalog Explorer o il comando SQL CREATE CONNECTION all'interno di un notebook di Azure Databricks o nell'editor di query SQL di Databricks.
Note
È anche possibile usare l'API REST di Databricks o l'interfaccia della riga di comando di Databricks per creare una connessione. Vedere POST /api/2.1/unity-catalog/connections e i comandi del Unity Catalog.
Autorizzazioni necessarie: Amministratore o utente Metastore con il privilegio CREATE CONNECTION.
Esploratore di cataloghi
Nell'area di lavoro di Azure Databricks fare clic
Catalogo.
Nella parte superiore del riquadro Catalogo, fare clic sull'icona
icona Aggiungi e selezionare Aggiungi una connessione dal menu.In alternativa, nella pagina Accesso rapido fare clic sul pulsante Dati esterni >, passare alla scheda Connessioni e fare clic su Crea connessione.
Immettere un nome di connessione semplice.
Selezionare il Tipo di connessione (provider di database, ad esempio MySQL o PostgreSQL).
(Facoltativo) Aggiungere un commento.
Fare clic su Avanti.
Immettere le proprietà di connessione, ad esempio informazioni sull'host, percorso e credenziali di accesso.
Ogni tipo di connessione richiede informazioni di connessione diverse. Vedere l'articolo relativo al tipo di connessione, elencato nel sommario a sinistra.
Fai clic su Crea connessione.
Immettere un nome per il catalogo esterno.
(Facoltativo) Fare clic su Test connessione per verificare che funzioni.
Fare clic su Crea Catalogo.
Selezionare le aree di lavoro in cui gli utenti possono accedere al catalogo creato. È possibile selezionare l'opzione Tutte le aree di lavoro hanno accesso, oppure fare clic su Assegna alle aree di lavoro, selezionare le aree di lavoro e quindi fare clic su Assegna.
Modifica il Proprietario che potrà gestire l'accesso a tutti gli oggetti del catalogo. Inizia a digitare un principale nella casella di testo e poi fai clic sul principale nei risultati restituiti.
Concedi privilegi sul catalogo. Fare clic su Concedi:
- Specificare i Principals che avranno accesso agli oggetti nel catalogo. Inizia a digitare un principale nella casella di testo e poi fai clic sul principale nei risultati restituiti.
- Selezionare i privilegi preimpostati da concedere a ciascun soggetto. A tutti gli utenti dell'account viene concesso il numero
BROWSEper impostazione predefinita.- Selezionare Lettore dati dal menu a discesa per concedere
readprivilegi agli oggetti nel catalogo. - Selezionare Editor dati dal menu a discesa per concedere a
reademodifyprivilegi sugli oggetti nel catalogo. - Selezionare manualmente i privilegi da concedere.
- Selezionare Lettore dati dal menu a discesa per concedere
- Fare clic su "Concedi".
- Fare clic su Avanti.
- Nella pagina metadati, specificare le coppie chiave-valore dei tag. Per ulteriori informazioni, vedere Applicare tag a oggetti proteggibili del catalogo Unity.
- (Facoltativo) Aggiungere un commento.
- Fare clic su Salva.
SQL
Eseguire il comando seguente in un notebook o nell'editor di query SQL. Questo esempio riguarda le connessioni a un database PostgreSQL. Le opzioni variano in base al tipo di connessione. Vedere l'articolo relativo al tipo di connessione, elencato nel sommario a sinistra.
CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
È consigliabile usare segreti di Azure Databricks anziché stringhe di testo non crittografato per valori sensibili come le credenziali. Per esempio:
CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
Per informazioni sulla configurazione dei segreti, vedere Gestione dei segreti.
Per informazioni sulla gestione delle connessioni esistenti, vedere Gestione delle connessioni per Lakehouse Federation.
Creare un catalogo straniero
Note
Se si usa l'interfaccia utente per creare una connessione all'origine dati, la creazione del catalogo esterno è inclusa ed è possibile ignorare questo passaggio.
Un catalogo esterno esegue il mirroring di un database in un sistema di dati esterno in modo da poter eseguire query e gestire l'accesso ai dati in tale database usando Azure Databricks e Unity Catalog. Per creare un catalogo esterno, si utilizza una connessione all'origine dati già definita.
Per creare un catalogo straniero, puoi utilizzare Catalog Explorer o il comando SQL CREATE FOREIGN CATALOG in un notebook di Azure Databricks o nell'editor di query SQL. È anche possibile usare l'API Unity Catalog. Vedere la documentazione di riferimento di Azure Databricks.
I metadati del catalogo esterno vengono sincronizzati in Unity Catalog per ogni interazione con il catalogo. Per il mapping dei tipi di dati tra Unity Catalog e l'origine dati, consulta la sezione Mappature dei tipi di dati della documentazione di ogni origine dati.
Autorizzazioni necessarie: autorizzazione CREATE CATALOG per il metastore e la proprietà della connessione o il privilegio CREATE FOREIGN CATALOG per la connessione.
Esploratore di cataloghi
Nell'area di lavoro di Azure Databricks fare clic
Catalogo per aprire Esplora cataloghi.
Nella parte superiore del riquadro Catalogo fare clic
Aggiungi dati e selezionare Crea un catalogo dal menu.In alternativa, nella pagina accesso rapido fare clic sul pulsante Cataloghi e quindi sul pulsante Crea catalogo.
Seguire le istruzioni per la creazione di cataloghi stranieri in Creare cataloghi.
SQL
Eseguire il comando SQL seguente in un notebook o nell'editor di query SQL. Gli elementi tra parentesi sono facoltativi. Sostituisci i valori segnaposto:
-
<catalog-name>: Nome per il catalogo in Azure Databricks. -
<connection-name>: oggetto connessione che specifica l'origine dati, il percorso e le credenziali di accesso. -
<database-name>: nome del database di cui si vuole eseguire il mirroring come catalogo in Azure Databricks. Non obbligatorio per MySQL, che usa uno spazio dei nomi a due livelli. -
<external-catalog-name>: solo Databricks-to-Databricks: Nome del catalogo nell'area di lavoro esterna di Databricks di cui si esegue il mirroring. Consulta Creare un catalogo esterno.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
Per informazioni sulla gestione e l'utilizzo di cataloghi stranieri, vedere Gestire e usare cataloghi stranieri.
Caricare dati da tabelle esterne con viste materializzate
Databricks consiglia di caricare dati esterni usando la federazione di query durante la creazione di viste materializzate. Vedere Viste materializzate.
Quando si usa la federazione di query, gli utenti possono fare riferimento ai dati federati come segue:
CREATE MATERIALIZED VIEW xyz AS SELECT * FROM federated_catalog.federated_schema.federated_table;
Visualizza le query federate generate dal sistema
La federazione di query converte le istruzioni SQL di Databricks in istruzioni che possono essere inserite nell'origine dati federata. Per visualizzare l'istruzione SQL generata, fare clic sul nodo di analisi dell'origine dati esterna nella visualizzazione del grafico di profilo di queryoppure eseguire l'istruzione EXPLAIN FORMATTED SQL. Per informazioni sulla copertura, consultare la sezione Pushdown supportato nella documentazione di ciascuna origine dati.
Limitations
Le interrogazioni sono di sola lettura.
L'unica eccezione è quando la Lakehouse Federation viene usata per federare il metastore Hive legacy di un'area di lavoro (catalog federation). Le tabelle esterne in questo scenario sono scrivibili. Consulta Che cosa significa scrivere in un catalogo esterno in un metastore Hive federato?.
La limitazione delle connessioni viene determinata usando il limite del numero di query simultanee di Databricks SQL. Non è previsto alcun limite tra i magazzini per ogni connessione. Vedere Accodamento e logica di scalabilità automatica.
Le tabelle e gli schemi con nomi non validi nel catalogo unity non sono supportati e vengono ignorati dal catalogo Unity al momento della creazione di un catalogo esterno. Vedere l'elenco delle regole di denominazione e delle limitazioni in Limitazioni.
I nomi delle tabelle e gli schemi vengono convertiti in lettere minuscole nel catalogo unity. Se ciò causa conflitti di nomi, Databricks non può garantire quale oggetto viene importato nel catalogo esterno.
Per ogni tabella esterna a cui si fa riferimento, Databricks pianifica una sottoquery nel sistema remoto per restituire un subset di dati da tale tabella, e quindi restituisce il risultato a un task executor di Databricks attraverso un singolo flusso. Se il set di risultati è troppo grande, il processo di esecuzione potrebbe esaurire la memoria.
La modalità di accesso dedicato (in precedenza modalità di accesso utente singolo) è disponibile solo per gli utenti proprietari della connessione.
Lakehouse Federation non può eseguire la federazione di tabelle esterne con identificatori con distinzione tra maiuscole e minuscole per le connessioni di Azure Synapse o Redshift.
Quote di risorse
Azure Databricks applica limiti di risorse a tutti gli oggetti tutelabili di Unity Catalog. Queste quote sono elencate in Limiti delle risorse. I cataloghi stranieri e tutti gli oggetti che contengono sono inclusi nell'utilizzo totale delle quote.
Se si prevede di superare questi limiti di risorse, contattare il team dell'account Azure Databricks.
È possibile monitorare l'utilizzo delle quote usando le API delle quote delle risorse di Unity Catalog. Consulta Monitora le quote di utilizzo delle risorse di Unity Catalog.