Nota
L'accesso a questa pagina richiede l'autorizzazione. Puoi provare ad accedere o a cambiare directory.
L'accesso a questa pagina richiede l'autorizzazione. Puoi provare a cambiare directory.
Important
Questa funzionalità è in versione beta. Gli amministratori dell'area di lavoro possono controllare l'accesso a questa funzionalità abilitando la funzionalità Federazione di lettura OneLake nella pagina Anteprime . Vedere Gestire le anteprime di Azure Databricks.
Dopo aver abilitato la funzionalità, è necessario riavviare il cluster di calcolo o SQL Warehouse.
Questo articolo illustra come leggere i dati in OneLake usando la federazione del catalogo. In questo modo, le query del catalogo Unity possono essere eseguite direttamente nell'archiviazione OneLake.
La federazione di OneLake consente di analizzare i dati archiviati in Lakehouse o Warehouse senza copiarli, portando funzionalità avanzate di analisi e intelligenza artificiale/BI in Azure Databricks direttamente ai dati di OneLake. L'accesso ai dati è di sola lettura.
Prima di iniziare
Per eseguire query federate in OneLake, è necessario soddisfare i requisiti seguenti usando la federazione del catalogo:
Requisiti dell'area di lavoro:
- Area di lavoro attivata per il catalogo Unity.
Requisiti di calcolo:
- Connettività di rete dalla risorsa di calcolo ai sistemi di database di destinazione. Vedi Raccomandazioni sulla rete per Lakehouse Federation.
- Il calcolo di Azure Databricks deve usare Databricks Runtime 18.0 o versione successiva e la modalità di accesso Standard. La modalità di accesso dedicato non è supportata.
- I magazzini SQL devono essere di livello professionale e devono utilizzare la versione 2025.35 o superiore. I magazzini di dati SQL serverless non sono supportati.
Autorizzazioni necessarie:
- Per creare una connessione, è necessario essere un amministratore del metastore o un utente con privilegi
CREATE CONNECTIONeCREATE STORAGE CREDENTIALnel metastore del catalogo Unity collegato all'area di lavoro. - Per creare un catalogo straniero, è necessario avere il permesso
CREATE CATALOGsul metastore ed essere il proprietario della connessione o avere il privilegioCREATE FOREIGN CATALOGsulla connessione.
In ogni sezione basata su attività che segue vengono specificati requisiti di autorizzazione aggiuntivi.
- È necessario disporre delle autorizzazioni per creare risorse in Azure, configurare l'accesso in Fabric e gestire Unity Catalog in Azure Databricks.
- Metodi di autenticazione supportati:
- Identità gestita di Azure tramite un connettore di accesso per Azure Databricks
- Principale di servizio di Azure
- Dopo aver abilitato questa funzionalità beta, è necessario riavviare il cluster di calcolo o SQL Warehouse.
Sono supportati gli elementi di dati di Fabric seguenti:
- Fabric Lakehouse
- Magazzino tessuti
Configurare la federazione del catalogo
La procedura seguente illustra come creare la connessione e il catalogo esterno per la federazione onelake.
Passaggio 1: Configurare l'autenticazione di Azure
La federazione di OneLake supporta due metodi di autenticazione.
- Identità gestita di Azure (scelta consigliata): usa un connettore di accesso di Databricks con un'identità gestita.
- Entità servizio di Azure: usa un'applicazione Microsoft Entra ID con credenziali client.
Opzione A: Creare un connettore di accesso (identità gestita)
Databricks Access Connector crea un'identità gestita usata da Azure Databricks per l'autenticazione con OneLake.
Nel portale di Azure cercare e creare un nuovo connettore di accesso per la risorsa Azure Databricks .
Seguire le istruzioni per creare il connettore. Questa risorsa crea un'identità gestita assegnata dal sistema.
Registrare l'ID risorsa del connettore appena creato. Questo ID è necessario quando si creano le credenziali di archiviazione del catalogo Unity.
L'ID risorsa è nel formato:
/subscriptions/<subscription-id>/resourceGroups/<resource-group>/providers/Microsoft.Databricks/accessConnectors/<connector-name>
Per altre informazioni sulla creazione di connettori di accesso e sull'uso di identità gestite, vedere Usare le identità gestite di Azure nel catalogo unity per accedere all'archiviazione.
Opzione B: Registrare un principale del servizio
Se preferisci utilizzare un'entità servizio anziché un'identità gestita:
- Nel portale di Azure passare aRegistrazioni app > e registrare una nuova applicazione (o usarne una esistente).
- Registrare l'ID applicazione (client) e l'ID directory (tenant).
- In Certificati e segreti creare un nuovo segreto client e registrare il valore del segreto.
Passaggio 2: Concedere le autorizzazioni in Fabric
Concedere all'identità gestita o all'entità servizio l'autorizzazione per la lettura dei dati di Fabric.
- Nel portale Fabric, naviga allo spazio di lavoro che contiene i tuoi elementi di dati Lakehouse o Warehouse.
- Nell'area di lavoro fare clic sull'icona a forma di ingranaggio Impostazioni area di lavoro, quindi fare clic su Gestisci accesso.
- Fare clic su Aggiungi persone o gruppi.
- Cercare e selezionare l'identità gestita o il principale del servizio. Per Identità gestita, il nome deve corrispondere al connettore di accesso creato in precedenza. Per un'entità servizio, cercare il nome dell'applicazione registrato.
- Assegnare almeno l'identità al ruolo Membro . È anche possibile assegnare ruoli collaboratore o amministratore .
- Fare clic su Aggiungi.
- Verificare che l'identità venga visualizzata nell'elenco di accesso con il ruolo appropriato. Le autorizzazioni per singoli elementi Lakehouse e Warehouse vengono ereditate dal ruolo a livello di area di lavoro.
Passaggio 3: Creare credenziali di archiviazione
Creare credenziali di archiviazione nel catalogo unity che faccia riferimento all'identità configurata nel passaggio 1.
- Nell'area di lavoro di Azure Databricks fare clic
Catalogo.
- Nella parte superiore del riquadro Catalogo, fare clic sull'icona
e selezionare Crea una credenziale dal menu.
Se si usa un'identità gestita:
- In Crea una nuova credenziale modale scegliere Identità gestita di Azure per Tipo di credenziale.
- Per Nome credenziale immettere un nome per le credenziali di archiviazione, ad esempio
onelake_storage_cred. - Per ID del connettore di accesso inserire l'ID risorsa del connettore di accesso creato in precedenza.
- (Facoltativo) Aggiungere un commento.
- Clicca su Crea.
Se stai utilizzando un principale del servizio:
Non è possibile creare una credenziale di archiviazione per il principale del servizio usando Catalog Explorer. È necessario essere un amministratore dell'account Azure Databricks e usare l'API Credenziali di archiviazione. Per esempio:
curl -X POST -n \
https://<databricks-instance>/api/2.1/unity-catalog/storage-credentials \
-d '{
"name": "<storage-credential-name>",
"read_only": true,
"azure_service_principal": {
"directory_id": "<directory-id>",
"application_id": "<application-id>",
"client_secret": "<client-secret>"
},
"skip_validation": "false"
}'
È anche possibile creare credenziali di archiviazione usando il provider Databricks Terraform e databricks_storage_credential.
Passaggio 4: Creare una connessione al catalogo Unity
Creare una connessione al catalogo Unity che usa le credenziali di archiviazione per accedere a OneLake.
- Nell'area di lavoro di Azure Databricks fare clic
Catalogo.
- Nella parte superiore del riquadro Catalogo, fare clic sull'icona
e selezionare Crea una connessione dal menu. - Nella pagina Informazioni di base sulla connessione immettere un nome di connessione , ad esempio
onelake_connection. - Selezionare un tipo di connessione di OneLake.
- (Facoltativo) Aggiungere un commento.
- Fare clic su Avanti.
- Nella pagina Dettagli connessione selezionare le credenziali di archiviazione create nel passaggio precedente, ad esempio
onelake_storage_cred. - Per Area di lavoro immettere l'ID dell'area di lavoro onelake.
- Fai clic su Crea connessione.
Dopo aver creato la connessione, è possibile lasciare questa finestra modale.
Passaggio 5: Creare un catalogo esterno
Un catalogo esterno collega un elemento di dati di Fabric specifico a un catalogo in Unity Catalog.
Ottenere l'ID dell'elemento di dati Fabric
Nel portale Fabric, vai al Lakehouse o Warehouse di destinazione.
Copiare l'ID dell'elemento di dati, ovvero un GUID , ad esempio
f089354e-8366-4e18-aea3-4cb4a3a50b48.È possibile trovare questo GUID nell'interfaccia utente di Fabric o copiandolo dall'URL del browser quando si accede a Lakehouse o Warehouse.
https://app.powerbi.com/groups/<workspace-id>/lakehouses/<data-item-id>?experience=power-bi
Creare il catalogo
- Nell'area di lavoro di Databricks fare clic
Catalogo.
- Nella parte superiore del riquadro Catalogo, fare clic sull'icona
e selezionare Crea un catalogo dal menu. - Nella finestra di dialogo Crea un nuovo catalogo immettere un nome per il catalogo , ad esempio
fabric_sales. - Selezionare un tipo di straniero.
- Selezionare la connessione creata nel passaggio 4 , ad esempio
onelake_connection. - Per Elemento dati immettere l'ID elemento di dati copiato dal portale di Fabric.
- (Facoltativo) Fare clic su Test connessione per convalidare la configurazione.
- Clicca su Crea.
Il catalogo viene sincronizzato automaticamente, rendendo immediatamente disponibili le tabelle di Fabric.
Concedere le autorizzazioni per le tabelle federate
Dopo aver configurato la federazione del catalogo, gli utenti devono disporre delle autorizzazioni appropriate per il catalogo Unity per accedere alle tabelle federate:
- Tutti gli utenti necessitano delle autorizzazioni
USE CATALOGper il catalogo eUSE SCHEMAper lo schema, rispettivamente. - Per leggere dalla tabella federata, gli utenti devono disporre dell'autorizzazione
SELECT.
Per altre informazioni sui privilegi del catalogo Unity e su come concederli, vedere Gestire i privilegi in Unity Catalog.
Eseguire query sui dati di OneLake
Al termine dell'installazione, è possibile trovare ed eseguire query sui dati di OneLake in Unity Catalog.
Esplorare il catalogo
- Nell'area di lavoro di Databricks passare a Esplora cataloghi.
- Individuare il catalogo creato, ad esempio
fabric_sales. - Espandere il catalogo per visualizzare gli schemi e le tabelle sincronizzati da Fabric Lakehouse o Warehouse.
Esegui le query
Usare la convenzione di denominazione in tre parti (catalog.schema.table) in Databricks SQL o notebook:
SELECT COUNT(*)
FROM fabric_sales.silver.customer_details;
SELECT
customer_id,
customer_name,
total_purchases
FROM fabric_sales.silver.customer_details
WHERE total_purchases > 1000
ORDER BY total_purchases DESC
LIMIT 10;
Limitazioni
La federazione di OneLake presenta le limitazioni seguenti:
- Accesso in sola lettura: Solo le query SELECT sono supportate. Le operazioni di scrittura non sono disponibili.
- Autenticazione: Identità Gestita di Azure e Principal di Servizio di Azure sono i metodi di autenticazione supportati.
- Elementi di dati supportati: sono supportati solo gli elementi Fabric Lakehouse e Warehouse.
- Requisiti di calcolo: è necessario usare Databricks Runtime 18.0 o versione successiva. La modalità di accesso dedicato e le risorse di calcolo serverless non sono supportate.