Not
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här sidan beskriver hur du konfigurerar Lakehouse Federation för att köra federerade frågor på Oracle-data som inte hanteras av Azure Databricks. Mer information om Lakehouse Federation finns i Vad är Lakehouse Federation?
Om du vill ansluta till Oracle-databasen med Lakehouse Federation måste du skapa följande i azure Databricks Unity Catalog-metaarkivet:
- En anslutning till en Oracle-databas.
- En utländsk katalog som speglar din Oracle-databas i Unity Catalog så att du kan använda Unity Catalog-frågesyntax och verktyg för datastyrning för att hantera Azure Databricks-användaråtkomst till databasen.
Limitations
Lakehouse Federation stöder endast TLS-anslutningar (Transport Layer Security) till Oracle Cloud. Anslutningar till andra Oracle-databaser använder inbyggd nätverkskryptering (NNE).
Det finns ett känt problem när du ansluter till instanserna 11.2.0.3.0 och senare som inte har ett tidszonsvärde (
Etc/UTCFel:ORA-01882: timezone region not found).- Lösning: Använd konfigurationen
spark.databricks.connector.oracle.timezoneAsRegionsom mappar direkt till JDBC-drivrutinsegenskapenoracle.jdbc.timezoneAsRegion. - Varning! Lösningen kan orsaka felaktigt beteende för sommartid (DST). Kontakta Oracle-supporten om du vill ha hjälp.
- Lösning: Använd konfigurationen
License
Oracle-drivrutinen och andra nödvändiga Oracle-jars styrs av FDHUT-licensen utan klick.
Innan du börjar
Innan du börjar kontrollerar du att du uppfyller kraven i det här avsnittet.
Databricks-krav
Krav för arbetsyta:
- Arbetsytan är aktiverad för Unity Catalog.
Beräkningskrav:
- Nätverksanslutning från beräkningsresursen till måldatabassystemen. Se Nätverksrekommendationer för Lakehouse Federation.
- Azure Databricks-beräkning måste använda Databricks Runtime 16.1 eller senare och standard - eller dedikerat åtkomstläge.
- SQL-lager måste vara pro eller serverlösa och måste använda 2024.50 eller senare.
Behörigheter som krävs:
- Om du vill skapa en anslutning måste du vara metaarkivadministratör eller användare med
CREATE CONNECTIONbehörighet i Unity Catalog-metaarkivet som är kopplat till arbetsytan. - Om du vill skapa en extern katalog måste du ha behörigheten
CREATE CATALOGi metaarkivet och antingen vara ägare till anslutningen eller haCREATE FOREIGN CATALOGbehörighet för anslutningen.
Ytterligare behörighetskrav anges i varje aktivitetsbaserat avsnitt som följer.
Oracle-krav
För anslutningar som använder intern nätverkskryptering måste du aktivera NNE på serversidan (ACCEPTED lägsta nivå). Se Konfigurera nätverksdatakryptering i Oracle-dokumentationen. Detta gäller inte för Oracle Cloud-anslutningar som använder TLS i stället.
Skapa en Azure Databricks-anslutning
En anslutning anger en sökväg och autentiseringsuppgifter för åtkomst till ett externt databassystem. Om du vill skapa en anslutning kan du använda Catalog Explorer eller kommandot CREATE CONNECTION SQL i en Azure Databricks-notebook-fil eller Databricks SQL-frågeredigeraren.
Note
Du kan också använda Databricks REST API eller Databricks CLI för att skapa en anslutning. Se kommandona POST /api/2.1/unity-catalog/connections och Unity Catalog.
Behörigheter som krävs: metaarkivadministratör eller användare med CREATE CONNECTION behörighet.
Katalogutforskaren
- På Azure Databricks-arbetsytan klickar du på
Katalog.
- I den vänstra rutan expanderar du menyn externa data och väljer Anslutningar.
- Klicka på Skapa anslutning.
- På sidan Anslutningsgrunder i guiden Konfigurera anslutning, ange ett användarvänligt Anslutningsnamn.
- Välj en anslutningstyp för Oracle.
- (Valfritt) Lägg till en kommentar.
- Klicka på Nästa.
- På sidan Authentication anger du följande för Oracle-instansen:
-
Host: Till exempel
oracle-demo.123456.rds.amazonaws.com -
Port: Till exempel
1521 -
Användare: Till exempel
oracle_user -
Lösenord: Till exempel
password123 -
Krypteringsprotokoll:
Native Network Encryption(standard) ellerTransport Layer Security
-
Host: Till exempel
- Klicka på Skapa anslutning.
- På catalog basics-sidan anger du ett namn för den externa katalogen. En extern katalog speglar en databas i ett externt datasystem så att du kan köra frågor mot och hantera åtkomst till data i databasen med hjälp av Azure Databricks och Unity Catalog.
- (Valfritt) Klicka på Testa anslutningen för att bekräfta att den fungerar.
- Klicka på Skapa katalog.
- På sidan Access väljer du de arbetsytor där användarna kan komma åt katalogen som du skapade. Du kan välja Alla arbetsytor har åtkomsteller klicka på Tilldela till arbetsytor, välj arbetsytor och klicka sedan på Tilldela.
- Ändra ägaren som ska kunna hantera åtkomsten till alla objekt i katalogen. Börja skriva en princip i textrutan och klicka sedan på principen i de returnerade resultaten.
- Bevilja privilegier i katalogen. Klicka på Bevilja:
- Ange principals vem som ska ha åtkomst till objekt i katalogen. Börja skriva en princip i textrutan och klicka sedan på principen i de returnerade resultaten.
- Välj förinställningarna för privilegier som ska beviljas varje huvudaktör . Alla kontoanvändare beviljas
BROWSEsom standard.- Välj dataläsare från den nedrullningsbara menyn för att bevilja
readbehörigheter för objekt i katalogen. - Välj dataredigeraren från den nedrullningsbara menyn för att bevilja
readochmodifybehörigheter för objekt i katalogen. - Välj de behörigheter som ska beviljas manuellt.
- Välj dataläsare från den nedrullningsbara menyn för att bevilja
- Klicka på Tillåt.
- Klicka på Nästa.
- På sidan metadata anger du taggar för nyckel/värde-par. Mer information finns i Tillämpa taggar på skyddsbara objekt i Unity Catalog.
- (Valfritt) Lägg till en kommentar.
- Klicka på Spara.
SQL
Kör följande kommando i en notebook-fil eller Databricks SQL-frågeredigeraren:
CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>',
encryption_protocol '<protocol>' -- optional
);
Databricks rekommenderar att du använder Azure Databricks hemligheter i stället för oformaterade strängar för känsliga värden som autentiseringsuppgifter. Till exempel:
CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>'),
encryption_protocol '<protocol>' -- optional
)
Om du måste använda textsträngar i SQL-kommandon för notebook-filer bör du undvika att trunkera strängen genom att undvika specialtecken som $ med \. Till exempel: \$.
Information om hur du konfigurerar hemligheter finns i Hemlighetshantering.
Skapa en utländsk katalog
Note
Om du använder användargränssnittet för att skapa en anslutning till datakällan inkluderas skapande av utländsk katalog och du kan hoppa över det här steget.
En extern katalog speglar en databas i ett externt datasystem så att du kan köra frågor mot och hantera åtkomst till data i databasen med hjälp av Azure Databricks och Unity Catalog. För att skapa en utländsk katalog använder du en anslutning till datakällan som redan har blivit definierad.
Om du vill skapa en utländsk katalog kan du använda Catalog Explorer eller kommandot CREATE FOREIGN CATALOG SQL i en Azure Databricks-anteckningsbok eller SQL-frågeredigeraren. Du kan också använda Databricks REST API eller Databricks CLI för att skapa en katalog. Se kommandona POST /api/2.1/unity-catalog/catalogs och Unity Catalog.
Behörigheter som krävs:CREATE CATALOG behörighet för metastore och antingen ägarskap av anslutningen eller CREATE FOREIGN CATALOG behörighet för anslutningen.
Katalogutforskaren
På Azure Databricks-arbetsytan klickar du på
Katalog för att öppna Katalogutforskaren.
Längst upp i fönstret Catalog klickar du på ikonen
ikonen Lägg till och väljer Lägg till en katalog på menyn.Från sidan Snabbåtkomst klickar du på knappen Kataloger och klickar sedan på knappen Skapa katalog.
Följ anvisningarna för att skapa externa kataloger i Skapa kataloger.
SQL
Kör följande SQL-kommando i en notebook- eller SQL-frågeredigerare. Objekt inom hakparenteser är valfria. Ersätt platshållarvärdena:
-
<catalog-name>: Namn på katalogen i Azure Databricks. -
<connection-name>: Det anslutningsobjektet som anger autentiseringsuppgifterna för datakälla, sökväg och åtkomst. -
<service-name>: Tjänstnamn som du vill spegla som en katalog i Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (service_name '<service-name>');
Pushdowns som stöds
Följande nedtryckningar stöds:
- Filters
- Projections
- Limit
- Aggregates
- Offset
- Cast
- Innehåller, Börjar med, Slutar med
Datatypsmappningar
När du läser från Oracle till Spark, så mappar datatyper på följande sätt:
| Oracle-typ | Sparktyp |
|---|---|
| TIDSMÄRKE MED TIMEZONE, TIDSMÄRKE MED LOKALT TIMEZONE | TimestampType |
| DATUM, TIDSSTÄMPEL | TimestampType/TimestampNTZType* |
| TAL, FLYTTAL | DecimalTyp** |
| BINÄR FLYTTAL | FloatType |
| BINÄR DUBBEL | DoubleType |
| CHAR, NCHAR, VARCHAR2, NVARCHAR2 | StringType |
* DATE och TIMESTAMP mappas till Spark TimestampType om spark.sql.timestampType = TIMESTAMP_LTZ (standard). De mappas till TimestampNTZType om spark.sql.timestampType = TIMESTAMP_NTZanvänds.
** TAL utan att ange precision mappas till DecimalType(38, 10) eftersom det inte finns något stöd för en ren flyttal decimal i Spark.