Bagikan melalui


Menjalankan kueri federasi di Amazon Redshift

Penting

Fitur ini ada di Pratinjau Publik.

Artikel ini menjelaskan cara menyiapkan Federasi Lakehouse untuk menjalankan kueri federasi pada Menjalankan kueri pada data Amazon Redshift yang tidak dikelola oleh Azure Databricks. Untuk mempelajari selengkapnya tentang Federasi Lakehouse, lihat Apa itu Federasi Lakehouse.

Untuk menyambungkan ke kueri Jalankan di database Amazon Redshift menggunakan Federasi Lakehouse, Anda harus membuat hal berikut di metastore Azure Databricks Unity Catalog Anda:

  • Koneksi ke Kueri Eksekusi Anda di database Amazon Redshift.
  • Katalog asing yang mencerminkan kueri Jalankan Anda pada database Amazon Redshift di Unity Catalog sehingga Anda dapat menggunakan sintaks kueri Unity Catalog dan alat tata kelola data untuk mengelola akses pengguna Azure Databricks ke database.

Sebelum Anda mulai

Persyaratan ruang kerja:

  • Ruang kerja diaktifkan untuk Katalog Unity.

Persyaratan komputasi:

  • Konektivitas jaringan dari kluster Databricks Runtime atau gudang SQL Anda ke sistem database target. Lihat Rekomendasi jaringan untuk Federasi Lakehouse.
  • Kluster Azure Databricks harus menggunakan Databricks Runtime 13.3 LTS atau lebih tinggi dan mode akses bersama atau pengguna tunggal.
  • Gudang SQL harus Pro atau Tanpa Server dan harus menggunakan 2023.40 atau lebih tinggi.

Izin yang diperlukan:

  • Untuk membuat koneksi, Anda harus menjadi admin metastore atau pengguna dengan CREATE CONNECTION hak istimewa pada metastore Katalog Unity yang dilampirkan ke ruang kerja.
  • Untuk membuat katalog asing, Anda harus memiliki CREATE CATALOG izin di metastore dan menjadi pemilik koneksi atau memiliki CREATE FOREIGN CATALOG hak istimewa pada koneksi.

Persyaratan izin tambahan ditentukan di setiap bagian berbasis tugas yang mengikuti.

Buat sambungan

Koneksi menentukan jalur dan kredensial untuk mengakses sistem database eksternal. Untuk membuat koneksi, Anda bisa menggunakan Catalog Explorer atau CREATE CONNECTION perintah SQL di buku catatan Azure Databricks atau editor kueri Databricks SQL.

Izin diperlukan: Admin atau pengguna Metastore dengan CREATE CONNECTION hak istimewa.

Penjelajah Katalog

  1. Di ruang kerja Azure Databricks Anda, klik Ikon katalog Katalog.

  2. Di bagian atas panel Katalog, klik Ikon Tambahkan atau plus ikon Tambahkan dan pilih Tambahkan koneksi dari menu.

    Atau, dari halaman Akses cepat, klik tombol Data > eksternal, buka tab Koneksi, dan klik Buat koneksi.

  3. Masukkan nama Koneksi yang mudah digunakan.

  4. Pilih Jenis koneksi Redshift.

  5. Masukkan properti koneksi berikut untuk instans Redshift Anda.

    • Host: Misalnya, redshift-demo.us-west-2.redshift.amazonaws.com
    • Port: Misalnya, 5439
    • Pengguna: Misalnya, redshift_user
    • Kata sandi: Misalnya, password123
  6. (Opsional) Klik Uji koneksi untuk mengonfirmasi bahwa koneksi berfungsi.

  7. (Opsional) Tambahkan komentar.

  8. Klik Buat.

SQL

Jalankan perintah berikut ini di buku catatan atau editor kueri Databricks SQL.

CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
  host '<hostname>',
  port '<port>',
  user '<user>',
  password '<password>'
);

Kami menyarankan agar Anda menggunakan rahasia Azure Databricks alih-alih string teks biasa untuk nilai sensitif seperti kredensial. Contohnya:

CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
  host '<hostname>',
  port '<port>',
  user secret ('<secret-scope>','<secret-key-user>'),
  password secret ('<secret-scope>','<secret-key-password>')
)

Untuk informasi tentang menyiapkan rahasia, lihat Manajemen rahasia.

Membuat katalog asing

Katalog asing mencerminkan database dalam sistem data eksternal sehingga Anda dapat mengkueri dan mengelola akses ke data dalam database tersebut menggunakan Azure Databricks dan Unity Catalog. Untuk membuat katalog asing, Anda menggunakan koneksi ke sumber data yang telah ditentukan.

Untuk membuat katalog asing, Anda bisa menggunakan Catalog Explorer atau CREATE FOREIGN CATALOG perintah SQL di buku catatan Azure Databricks atau editor kueri SQL.

Izin diperlukan: CREATE CATALOG izin pada metastore dan kepemilikan koneksi atau CREATE FOREIGN CATALOG hak istimewa pada koneksi.

Penjelajah Katalog

  1. Di ruang kerja Azure Databricks Anda, klik Ikon katalog Katalog untuk membuka Catalog Explorer.

  2. Di bagian atas panel Katalog, klik Ikon Tambahkan atau plus ikon Tambahkan dan pilih Tambahkan katalog dari menu.

    Atau, dari halaman Akses cepat, klik tombol Katalog , lalu klik tombol Buat katalog .

  3. Ikuti instruksi untuk membuat katalog asing di Membuat katalog.

SQL

Jalankan perintah SQL berikut ini di buku catatan atau editor kueri SQL. Item dalam tanda kurung bersifat opsional. Ganti nilai tempat penampung:

  • <catalog-name>: Nama untuk katalog di Azure Databricks.
  • <connection-name>: Objek koneksi yang menentukan sumber data, jalur, dan kredensial akses.
  • <database-name>: Nama database yang ingin Anda cerminkan sebagai katalog di Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');

Pushdown yang didukung

Pushdown berikut didukung:

  • Filter
  • Proyeksi
  • Batas
  • Gabungan
  • Agregat (Rata-rata, Hitungan, Maks, Min, StddevPop, StddevSamp, Sum, VarianceSamp)
  • Fungsi (Fungsi string dan fungsi lain-lain, seperti Alias, Cast, SortOrder)
  • Pengurutan

Pushdown berikut ini tidak didukung:

  • Fungsi Windows

Pemetaan jenis data

Saat Anda membaca dari Redshift ke Spark, jenis data memetakan sebagai berikut:

Jenis Redshift Jenis Spark
numeric DecimalType
int2, int4 IntegerType
int8, oid, xid LongType
float4 FloatType
presisi ganda, float8, uang DoubleType
bpchar, karakter, karakter bervariasi, nama, super, teks, tid, varchar StringType
bytea, geometri, varbyte BinaryType
bit, bool BooleanType
date DateType
tabstime, time, time with time zone, timetz, time without time zone, timestamp with time zone, timestamptz, timestamptz without time zone* TimestampType/TimestampNTZType

*Saat Anda membaca dari Redshift, Redshift Timestamp dipetakan ke Spark TimestampType jika infer_timestamp_ntz_type = false (default). Redshift Timestamp dipetakan ke TimestampNTZType jika infer_timestamp_ntz_type = true.