Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questa pagina descrive come configurare Lakehouse Federation per eseguire query federate sui dati Oracle non gestiti da Azure Databricks. Per altre informazioni sulla federazione lakehouse, vedere Che cos'è Lakehouse Federation?
Per connettersi al database Oracle usando Lakehouse Federation, è necessario creare quanto segue nel metastore del catalogo Unity di Azure Databricks:
- Una connessione al database Oracle.
- Un catalogo esterno che rispecchia il database Oracle in Unity Catalog in modo da poter usare la sintassi delle query di Unity Catalog e gli strumenti di governance dei dati per gestire l'accesso utente di Azure Databricks al database.
Limitations
Lakehouse Federation supporta solo le connessioni TLS (Transport Layer Security) a Oracle Cloud. Le connessioni ad altri database Oracle usano la crittografia di rete nativa (NNE).
Si verifica un problema noto durante la connessione alle istanze 11.2.0.3.0 e successive che non hanno un valore di fuso orario (
Etc/UTCErrore:ORA-01882: timezone region not found).- Soluzione alternativa: usare la
spark.databricks.connector.oracle.timezoneAsRegionconfigurazione, che mappa direttamente alla proprietà deloracle.jdbc.timezoneAsRegiondriver JDBC. - Avviso: la soluzione alternativa può causare un comportamento scorretto dell'ora legale. Per assistenza, contattare il supporto tecnico Oracle.
- Soluzione alternativa: usare la
License
Il driver Oracle e altri file JAR Oracle necessari sono regolati dalla licenza FDHUT senza clic.
Prima di iniziare
Prima di iniziare, verificare di soddisfare i requisiti in questa sezione.
Requisiti di Databricks
Requisiti dell'area di lavoro:
- Area di lavoro attivata per il catalogo Unity.
Requisiti di calcolo:
- Connettività di rete dalla risorsa di calcolo ai sistemi di database di destinazione. Consultare Raccomandazioni per la rete per Lakehouse Federation.
- Il calcolo di Azure Databricks deve usare Databricks Runtime 16.1 o versione successiva e la modalità di accesso Standard o Dedicato .
- I warehouse SQL devono essere pro o serverless e devono usare la versione 2024.50 o successiva.
Autorizzazioni necessarie:
- Per creare una connessione, è necessario essere un amministratore del metastore o un utente con il privilegio
CREATE CONNECTIONnel metastore del catalogo Unity collegato all'area di lavoro. - Per creare un catalogo esterno, è necessario disporre dell'autorizzazione
CREATE CATALOGper il metastore e essere il proprietario della connessione o disporre del privilegioCREATE FOREIGN CATALOGper la connessione.
In ogni sezione basata su attività che segue vengono specificati requisiti di autorizzazione aggiuntivi.
Requisiti Oracle
Per le connessioni che usano La crittografia di rete nativa, è necessario abilitare almeno il livello NNE lato server.ACCEPTED Vedere Configuring Network Data Encryption nella documentazione di Oracle. Ciò non si applica alle connessioni Oracle Cloud, che usano invece TLS.
Creare una connessione di Azure Databricks
Una connessione specifica un percorso e le credenziali per l'accesso a un sistema di database esterno. Per creare una connessione, è possibile usare Esplora cataloghi o il comando SQL CREATE CONNECTION in un notebook di Azure Databricks o nell'editor di query SQL di Databricks.
Note
È anche possibile usare l'API REST di Databricks o l'interfaccia della riga di comando di Databricks per creare una connessione. Vedere comando POST /api/2.1/unity-catalog/connections e i comandi del catalogo Unity.
Autorizzazioni necessarie: amministratore o utente del metastore con il privilegio CREATE CONNECTION.
Esploratore di cataloghi
- Nell'area di lavoro di Azure Databricks fare clic
Catalogo.
- Nel riquadro sinistro espandere il menu dati esterni e selezionare Connessioni.
- Fare clic su Crea connessione.
- Nella pagina Connessione di base della Configurazione guidata connessione, immettere un descrittivo nome di connessione .
- Selezionare un tipo di connessione di Oracle.
- (Facoltativo) Aggiungere un commento.
- Fare clic su Avanti.
- Nella pagina Autenticazione, inserisci quanto segue per l'istanza di Oracle:
-
Host: Ad esempio,
oracle-demo.123456.rds.amazonaws.com -
porta: ad esempio,
1521 -
Utente: per esempio,
oracle_user -
password: ad esempio,
password123 -
Protocollo di crittografia:
Native Network Encryption(impostazione predefinita) oTransport Layer Security
-
Host: Ad esempio,
- Fare clic su Crea connessione.
- Nella pagina informazioni di base del catalogo
immettere un nome per il catalogo esterno. Un catalogo esterno esegue il mirroring di un database in un sistema di dati esterno in modo da poter eseguire query e gestire l'accesso ai dati in tale database usando Azure Databricks e Unity Catalog. - (Facoltativo) Fare clic su Test di connessione per verificare che funzioni.
- Fare clic su Crea il catalogo.
- Nella pagina Access selezionare le aree di lavoro in cui gli utenti possono accedere al catalogo creato. È possibile selezionare Tutte le aree di lavoro hanno accessooppure fare clic su Assegna alle aree di lavoro, selezionare le aree di lavoro e quindi fare clic su Assegna.
- Modificare il Proprietario che sarà in grado di gestire l'accesso a tutti gli oggetti nel catalogo. Inizia a digitare un principale nella casella di testo e quindi fai clic sul principale nei risultati visualizzati.
- Concedi privilegi sul catalogo. Fare clic su Concedi:
- Specificare il Principals che avranno accesso agli oggetti nel catalogo. Inizia a digitare un principale nella casella di testo e quindi fai clic sul principale nei risultati visualizzati.
- Selezionare i set di impostazioni Privilegi da concedere a ogni soggetto. Tutti gli utenti dell'account vengono concessi
BROWSEper impostazione predefinita.- Selezionare Data Reader dal menu a tendina per concedere
readprivilegi sugli oggetti nel catalogo. - Selezionare Editor dati dal menu a discesa per concedere i privilegi
reademodifysugli oggetti nel catalogo. - Selezionare manualmente i privilegi da concedere.
- Selezionare Data Reader dal menu a tendina per concedere
- Fare clic su "Concedi".
- Fare clic su Avanti.
- Nella pagina metadati, specificare le coppie chiave-valore dei tag. Per ulteriori informazioni, vedere Applicare tag agli oggetti sicurizzabili del catalogo Unity.
- (Facoltativo) Aggiungere un commento.
- Fare clic su Salva.
SQL
Eseguire il comando seguente in un notebook o nell'editor di query SQL di Databricks:
CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>',
encryption_protocol '<protocol>' -- optional
);
Databricks consiglia di usare Azure Databricks segreti anziché stringhe di testo non crittografato per valori sensibili come le credenziali. Per esempio:
CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>'),
encryption_protocol '<protocol>' -- optional
)
Se è necessario usare stringhe di testo non crittografato nei comandi SQL del notebook, evitare di troncare la stringa eliminando caratteri speciali come $ con \. Ad esempio: \$.
Per informazioni sulla configurazione dei segreti, vedere Gestione dei segreti.
Creare un catalogo esterno
Note
Se si usa l'interfaccia utente per creare una connessione all'origine dati, la creazione del catalogo esterno è inclusa ed è possibile ignorare questo passaggio.
Un catalogo esterno esegue il mirroring di un database in un sistema di dati esterno in modo da poter eseguire query e gestire l'accesso ai dati in tale database usando Azure Databricks e Unity Catalog. Per creare un catalogo esterno, si utilizza una connessione all'origine dati già definita.
Per creare un catalogo esterno, è possibile usare Esplora cataloghi o il comando SQL CREATE FOREIGN CATALOG in un notebook di Azure Databricks o nell'editor di query SQL. È anche possibile usare l'API REST di Databricks o l'interfaccia della riga di comando di Databricks per creare un catalogo. Consulta POST /api/2.1/unity-catalog/catalogs e comandi Unity Catalog.
Autorizzazioni necessarie: l'autorizzazioneCREATE CATALOG sul metastore e la proprietà della connessione o il privilegio CREATE FOREIGN CATALOG sulla connessione.
Esploratore di cataloghi
Nell'area di lavoro di Azure Databricks fare clic
Catalogo per aprire Esplora cataloghi.
Nella parte superiore del riquadro catalogo
fare clic sull'icona Aggiungi o più Icona Aggiungi e selezionareAggiungi un catalogo dal menu.In alternativa, nella pagina accesso rapido, fare clic sul pulsante Cataloghi e quindi sul pulsante Crea catalogo.
Seguire le istruzioni per creare cataloghi esteri in Creare cataloghi.
SQL
Eseguire il comando SQL seguente in un notebook o in un editor di query SQL. Gli elementi tra parentesi quadre sono facoltativi. Sostituire i valori segnaposto:
-
<catalog-name>: Nome del catalogo in Azure Databricks. -
<connection-name>: oggetto connessione che specifica l'origine dati, il percorso e le credenziali di accesso. -
<service-name>: nome del servizio che vuoi rispecchiare come catalogo in Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (service_name '<service-name>');
Supporto per pushdown
Sono supportati i pushdown seguenti:
- Filters
- Projections
- Limit
- Aggregates
- Offset
- Cast
- Contiene, Inizia con, Termina con
Mapping dei tipi di dati
Quando si legge da Oracle a Spark, i tipi di dati vengono mappati nel modo seguente:
| Tipo Oracle | Tipo Spark |
|---|---|
| MARCATEMPO CON TIMEZONE, MARCATEMPO CON LOCALE TIMEZONE | TimestampType |
| DATE, TIMESTAMP | TimestampType/TimestampNTZType* |
| NUMBER, FLOAT | DecimalType** |
| Virgola mobile binaria | FloatType |
| BINARY DOUBLE | DoubleType |
| CHAR, NCHAR, VARCHAR2, NVARCHAR2 | StringType |
* DATE e TIMESTAMP vengono mappati a Spark TimestampType se spark.sql.timestampType = TIMESTAMP_LTZ (impostazione predefinita). Vengono mappati a TimestampNTZType se spark.sql.timestampType = TIMESTAMP_NTZ.
** NUMBER senza specificare precisione verrà mappato a DecimalType(38, 10) perché non è disponibile alcun supporto per un decimale a virgola mobile puro in Spark.