Köra federerade frågor på Oracle

Den här sidan beskriver hur du konfigurerar Lakehouse Federation för att köra federerade frågor på Oracle-data som inte hanteras av Azure Databricks. Mer information om Lakehouse Federation finns i Vad är Lakehouse Federation?

Om du vill ansluta till Oracle-databasen med Lakehouse Federation måste du skapa följande i azure Databricks Unity Catalog-metaarkivet:

  • En anslutning till en Oracle-databas.
  • En utländsk katalog som speglar din Oracle-databas i Unity Catalog så att du kan använda Unity Catalog-frågesyntax och verktyg för datastyrning för att hantera Azure Databricks-användaråtkomst till databasen.

Limitations

  • Lakehouse Federation stöder endast TLS-anslutningar (Transport Layer Security) till Oracle Cloud. Anslutningar till andra Oracle-databaser använder inbyggd nätverkskryptering (NNE).

  • Det finns ett känt problem när du ansluter till instanserna 11.2.0.3.0 och senare som inte har ett tidszonsvärde ( Etc/UTC Fel: ORA-01882: timezone region not found).

    • Lösning: Använd konfigurationen spark.databricks.connector.oracle.timezoneAsRegion som mappar direkt till JDBC-drivrutinsegenskapen oracle.jdbc.timezoneAsRegion .
    • Varning! Lösningen kan orsaka felaktigt beteende för sommartid (DST). Kontakta Oracle-supporten om du vill ha hjälp.

License

Oracle-drivrutinen och andra nödvändiga Oracle-jars styrs av FDHUT-licensen utan klick.

Innan du börjar

Innan du börjar kontrollerar du att du uppfyller kraven i det här avsnittet.

Databricks-krav

Krav för arbetsyta:

  • Arbetsytan är aktiverad för Unity Catalog.

Beräkningskrav:

  • Nätverksanslutning från beräkningsresursen till måldatabassystemen. Se Nätverksrekommendationer för Lakehouse Federation.
  • Azure Databricks-beräkning måste använda Databricks Runtime 16.1 eller senare och standard - eller dedikerat åtkomstläge.
  • SQL-lager måste vara pro eller serverlösa och måste använda 2024.50 eller senare.

Behörigheter som krävs:

  • Om du vill skapa en anslutning måste du vara metaarkivadministratör eller användare med CREATE CONNECTION behörighet i Unity Catalog-metaarkivet som är kopplat till arbetsytan.
  • Om du vill skapa en extern katalog måste du ha behörigheten CREATE CATALOG i metaarkivet och antingen vara ägare till anslutningen eller ha CREATE FOREIGN CATALOG behörighet för anslutningen.

Ytterligare behörighetskrav anges i varje aktivitetsbaserat avsnitt som följer.

Oracle-krav

För anslutningar som använder intern nätverkskryptering måste du aktivera NNE på serversidan (ACCEPTED lägsta nivå). Se Konfigurera nätverksdatakryptering i Oracle-dokumentationen. Detta gäller inte för Oracle Cloud-anslutningar som använder TLS i stället.

Skapa en Azure Databricks-anslutning

En anslutning anger en sökväg och autentiseringsuppgifter för åtkomst till ett externt databassystem. Om du vill skapa en anslutning kan du använda Catalog Explorer eller kommandot CREATE CONNECTION SQL i en Azure Databricks-notebook-fil eller Databricks SQL-frågeredigeraren.

Note

Du kan också använda Databricks REST API eller Databricks CLI för att skapa en anslutning. Se kommandona POST /api/2.1/unity-catalog/connections och Unity Catalog.

Behörigheter som krävs: metaarkivadministratör eller användare med CREATE CONNECTION behörighet.

Katalogutforskaren

  1. På Azure Databricks-arbetsytan klickar du på dataikonen.Katalog.
  2. I den vänstra rutan expanderar du menyn externa data och väljer Anslutningar.
  3. Klicka på Skapa anslutning.
  4. På sidan Anslutningsgrunder i guiden Konfigurera anslutning, ange ett användarvänligt Anslutningsnamn.
  5. Välj en anslutningstyp för Oracle.
  6. (Valfritt) Lägg till en kommentar.
  7. Klicka på Nästa.
  8. På sidan Authentication anger du följande för Oracle-instansen:
    • Host: Till exempel oracle-demo.123456.rds.amazonaws.com
    • Port: Till exempel 1521
    • Användare: Till exempel oracle_user
    • Lösenord: Till exempel password123
    • Krypteringsprotokoll: Native Network Encryption (standard) eller Transport Layer Security
  9. Klicka på Skapa anslutning.
  10. catalog basics-sidan anger du ett namn för den externa katalogen. En extern katalog speglar en databas i ett externt datasystem så att du kan köra frågor mot och hantera åtkomst till data i databasen med hjälp av Azure Databricks och Unity Catalog.
  11. (Valfritt) Klicka på Testa anslutningen för att bekräfta att den fungerar.
  12. Klicka på Skapa katalog.
  13. På sidan Access väljer du de arbetsytor där användarna kan komma åt katalogen som du skapade. Du kan välja Alla arbetsytor har åtkomsteller klicka på Tilldela till arbetsytor, välj arbetsytor och klicka sedan på Tilldela.
  14. Ändra ägaren som ska kunna hantera åtkomsten till alla objekt i katalogen. Börja skriva en princip i textrutan och klicka sedan på principen i de returnerade resultaten.
  15. Bevilja privilegier i katalogen. Klicka på Bevilja:
    1. Ange principals vem som ska ha åtkomst till objekt i katalogen. Börja skriva en princip i textrutan och klicka sedan på principen i de returnerade resultaten.
    2. Välj förinställningarna för privilegier som ska beviljas varje huvudaktör . Alla kontoanvändare beviljas BROWSE som standard.
      • Välj dataläsare från den nedrullningsbara menyn för att bevilja read behörigheter för objekt i katalogen.
      • Välj dataredigeraren från den nedrullningsbara menyn för att bevilja read och modify behörigheter för objekt i katalogen.
      • Välj de behörigheter som ska beviljas manuellt.
    3. Klicka på Tillåt.
  16. Klicka på Nästa.
  17. På sidan metadata anger du taggar för nyckel/värde-par. Mer information finns i Tillämpa taggar på skyddsbara objekt i Unity Catalog.
  18. (Valfritt) Lägg till en kommentar.
  19. Klicka på Spara.

SQL

Kör följande kommando i en notebook-fil eller Databricks SQL-frågeredigeraren:

CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
  host '<hostname>',
  port '<port>',
  user '<user>',
  password '<password>',
  encryption_protocol '<protocol>' -- optional
);

Databricks rekommenderar att du använder Azure Databricks hemligheter i stället för oformaterade strängar för känsliga värden som autentiseringsuppgifter. Till exempel:

CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
  host '<hostname>',
  port '<port>',
  user secret ('<secret-scope>','<secret-key-user>'),
  password secret ('<secret-scope>','<secret-key-password>'),
  encryption_protocol '<protocol>' -- optional
)

Om du måste använda textsträngar i SQL-kommandon för notebook-filer bör du undvika att trunkera strängen genom att undvika specialtecken som $ med \. Till exempel: \$.

Information om hur du konfigurerar hemligheter finns i Hemlighetshantering.

Skapa en utländsk katalog

Note

Om du använder användargränssnittet för att skapa en anslutning till datakällan inkluderas skapande av utländsk katalog och du kan hoppa över det här steget.

En extern katalog speglar en databas i ett externt datasystem så att du kan köra frågor mot och hantera åtkomst till data i databasen med hjälp av Azure Databricks och Unity Catalog. För att skapa en utländsk katalog använder du en anslutning till datakällan som redan har blivit definierad.

Om du vill skapa en utländsk katalog kan du använda Catalog Explorer eller kommandot CREATE FOREIGN CATALOG SQL i en Azure Databricks-anteckningsbok eller SQL-frågeredigeraren. Du kan också använda Databricks REST API eller Databricks CLI för att skapa en katalog. Se kommandona POST /api/2.1/unity-catalog/catalogs och Unity Catalog.

Behörigheter som krävs:CREATE CATALOG behörighet för metastore och antingen ägarskap av anslutningen eller CREATE FOREIGN CATALOG behörighet för anslutningen.

Katalogutforskaren

  1. På Azure Databricks-arbetsytan klickar du på dataikonen.Katalog för att öppna Katalogutforskaren.

  2. Längst upp i fönstret Catalog klickar du på ikonen Lägg till eller plusikonen Lägg till och väljer Lägg till en katalog på menyn.

    Från sidan Snabbåtkomst klickar du på knappen Kataloger och klickar sedan på knappen Skapa katalog.

  3. Följ anvisningarna för att skapa externa kataloger i Skapa kataloger.

SQL

Kör följande SQL-kommando i en notebook- eller SQL-frågeredigerare. Objekt inom hakparenteser är valfria. Ersätt platshållarvärdena:

  • <catalog-name>: Namn på katalogen i Azure Databricks.
  • <connection-name>: Det anslutningsobjektet som anger autentiseringsuppgifterna för datakälla, sökväg och åtkomst.
  • <service-name>: Tjänstnamn som du vill spegla som en katalog i Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (service_name '<service-name>');

Pushdowns som stöds

Följande nedtryckningar stöds:

  • Filters
  • Projections
  • Limit
  • Aggregates
  • Offset
  • Cast
  • Innehåller, Börjar med, Slutar med

Datatypsmappningar

När du läser från Oracle till Spark, så mappar datatyper på följande sätt:

Oracle-typ Sparktyp
TIDSMÄRKE MED TIMEZONE, TIDSMÄRKE MED LOKALT TIMEZONE TimestampType
DATUM, TIDSSTÄMPEL TimestampType/TimestampNTZType*
TAL, FLYTTAL DecimalTyp**
BINÄR FLYTTAL FloatType
BINÄR DUBBEL DoubleType
CHAR, NCHAR, VARCHAR2, NVARCHAR2 StringType

* DATE och TIMESTAMP mappas till Spark TimestampType om spark.sql.timestampType = TIMESTAMP_LTZ (standard). De mappas till TimestampNTZType om spark.sql.timestampType = TIMESTAMP_NTZanvänds.

** TAL utan att ange precision mappas till DecimalType(38, 10) eftersom det inte finns något stöd för en ren flyttal decimal i Spark.