Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Halaman ini menjelaskan cara menyiapkan Lakehouse Federation untuk menjalankan kueri terfederasi pada data PostgreSQL yang tidak dikelola oleh Azure Databricks. Untuk mempelajari selengkapnya tentang Federasi Lakehouse, lihat Apa itu Federasi Lakehouse?
Untuk menjalankan kueri pada database PostgreSQL menggunakan Lakehouse Federation, Anda harus membuat yang berikut ini di metastore Azure Databricks Unity Catalog Anda:
- Koneksi ke database Run queries on PostgreSQL Anda.
- Katalog asing yang mencerminkan kueri yang Anda jalankan di database PostgreSQL di Unity Catalog agar Anda dapat menggunakan sintaks kueri Unity Catalog dan alat tata kelola data untuk mengelola akses pengguna Azure Databricks ke dalam database.
Sebelum Anda mulai
Persyaratan ruang kerja:
- Ruang kerja telah diaktifkan untuk Katalog Unity.
Persyaratan komputasi:
- Konektivitas jaringan dari sumber daya komputasi Anda ke sistem database target. Lihat Rekomendasi jaringan untuk Federasi Lakehouse.
- Komputasi Azure Databricks harus menggunakan Databricks Runtime 13.3 LTS atau yang lebih tinggi serta mode akses Standar atau mode akses Dedicated .
- Gudang SQL harus pro atau tanpa server dan harus menggunakan 2023.40 atau lebih tinggi.
Izin diperlukan:
- Untuk membuat koneksi, Anda harus menjadi admin metastore atau pengguna dengan hak istimewa
CREATE CONNECTIONpada metastore Katalog Unity yang terhubung ke ruang kerja. - Untuk membuat katalog asing, Anda harus memiliki izin
CREATE CATALOGdi metastore dan menjadi pemilik koneksi atau memiliki hak istimewaCREATE FOREIGN CATALOGpada koneksi.
Persyaratan izin tambahan ditentukan di setiap bagian berbasis tugas yang mengikuti.
Buat sambungan
Koneksi menentukan jalur dan kredensial untuk mengakses sistem database eksternal. Untuk membuat koneksi, Anda bisa menggunakan Catalog Explorer atau perintah SQL CREATE CONNECTION di buku catatan Azure Databricks atau editor kueri Databricks SQL.
Note
Anda juga dapat menggunakan Databricks REST API atau Databricks CLI untuk membuat koneksi. Lihat POST /api/2.1/unity-catalog/connections dan perintah Unity Catalog.
Izin diperlukan: Admin atau pengguna Metastore dengan CREATE CONNECTION hak istimewa.
Eksplorer Katalog
Di ruang kerja Azure Databricks Anda, klik
Katalog.
Di bagian atas panel Katalog
, klik ikon Tambahkan atau plus ikon Tambahkan dan pilihTambahkan koneksi dari menu.Atau, dari halaman akses cepat , klik tombol Data eksternal >, buka tab Koneksi, dan klik Buat koneksi.
Pada halaman dasar-dasar Koneksi
wizard Menyiapkan koneksi , masukkan nama Koneksiyang mudah digunakan .Pilih jenis Koneksi dari PostgreSQL.
(Opsional) Tambahkan komentar.
Klik Berikutnya.
Pada halaman Autentikasi
, masukkan properti koneksi berikut untuk instans PostgreSQL Anda. -
Host: Misalnya,
postgres-demo.lb123.us-west-2.rds.amazonaws.com -
Port: Misalnya,
5432 -
Pengguna: Misalnya,
postgres_user -
Kata sandi: Misalnya,
password123
-
Host: Misalnya,
Klik Buat koneksi.
Pada halaman dasar-dasar Catalog, masukkan nama untuk katalog luar. Katalog asing mencerminkan database dalam sistem data eksternal sehingga Anda dapat mengkueri dan mengelola akses ke data dalam database tersebut menggunakan Azure Databricks dan Unity Catalog.
(Opsional) Klik Uji koneksi untuk mengonfirmasi bahwa koneksi berfungsi.
Klik Buat katalog.
Pada halaman Access, pilih ruang kerja tempat pengguna dapat mengakses katalog yang Anda buat. Anda dapat memilih Semua ruang kerja memiliki akses, atau klik Tetapkan ke ruang kerja, pilih ruang kerja, lalu klik Tetapkan.
Ubah Pemilik yang akan dapat mengelola akses ke semua objek dalam katalog. Mulai ketik prinsipal dalam kotak teks, lalu klik prinsipal dalam hasil yang dikembalikan.
Berikan Hak Istimewa pada katalog. Klik Berikan:
- Tentukan Penanggung jawab yang dapat mengakses objek di dalam katalog. Mulai ketik prinsipal dalam kotak teks, lalu klik prinsipal dalam hasil yang dikembalikan.
- Pilih preset Privilege untuk diberikan kepada setiap prinsipal. Semua pengguna akun diberikan
BROWSEsecara default.- Pilih Pembaca Data dari menu drop-down untuk memberikan izin
readpada objek dalam katalog. - Pilih Editor Data
dari menu drop-down untuk memberikan hak istimewa dan pada objek dalam katalog. - Pilih hak istimewa yang akan diberikan secara manual.
- Pilih Pembaca Data dari menu drop-down untuk memberikan izin
- Klik pada Berikan.
Klik Berikutnya.
Pada halaman Metadata, tentukan pasangan kunci-nilai tag. Untuk informasi selengkapnya, lihat Menerapkan tag ke objek yang dapat diamankan di Katalog Unity.
(Opsional) Tambahkan komentar.
Kliklah Simpan.
SQL
Jalankan perintah berikut ini di buku catatan atau editor kueri Databricks SQL.
CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
Kami menyarankan agar Anda menggunakan Azure Databricks rahasia alih-alih string teks biasa untuk nilai sensitif seperti kredensial. Contohnya:
CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
Untuk informasi tentang menyiapkan rahasia, lihat Manajemen rahasia.
Membuat katalog asing
Note
Jika Anda menggunakan UI untuk membuat koneksi ke sumber data, pembuatan katalog asing disertakan dan Anda dapat melewati langkah ini.
Katalog asing mencerminkan database dalam sistem data eksternal sehingga Anda dapat mengkueri dan mengelola akses ke data dalam database tersebut menggunakan Azure Databricks dan Unity Catalog. Untuk membuat katalog asing, Anda menggunakan koneksi ke sumber data yang telah ditentukan.
Untuk membuat katalog asing, Anda bisa menggunakan Catalog Explorer atau perintah CREATE FOREIGN CATALOG SQL di buku catatan Azure Databricks atau editor kueri SQL. Anda juga dapat menggunakan Databricks REST API atau Databricks CLI untuk membuat katalog. Lihat POST /api/2.1/unity-catalog/catalogs dan perintah Unity Catalog.
Izin diperlukan:CREATE CATALOG izin pada metastore dan kepemilikan koneksi atau CREATE FOREIGN CATALOG hak istimewa pada koneksi.
Eksplorer Katalog
Di ruang kerja Azure Databricks Anda, klik
Katalog untuk membuka Catalog Explorer.
Di bagian atas panel Katalog
, klik ikon Tambahkan atau plus tambahkan ikon dan pilihTambahkan katalog dari menu.Atau, dari halaman akses cepat, klik tombol Katalog, lalu klik tombol Buat katalog.
Ikuti instruksi untuk membuat katalog asing di Membuat katalog.
SQL
Jalankan perintah SQL berikut ini di buku catatan atau editor kueri SQL. Item dalam tanda kurung bersifat opsional. Ganti nilai tempat penampung:
-
<catalog-name>: Nama untuk katalog di Azure Databricks. -
<connection-name>: Objek koneksi yang menentukan sumber data, jalur, dan kredensial akses. -
<database-name>: Nama database yang ingin Anda cerminkan sebagai katalog di Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
Fitur pushdown yang didukung
Pushdown berikut didukung pada semua komputasi:
- Filters
- Projections
- Limit
- Fungsi: parsial, hanya untuk ekspresi filter. (Fungsi string, fungsi matematika, dan fungsi lain-lain, seperti Alias, Cast, SortOrder)
Pushdown berikut didukung pada Databricks Runtime 13.3 LTS ke atas, dan di gudang SQL:
- Fungsi agregasi berikut: MIN, MAX, COUNT, SUM, AVG, VAR_POP, VAR_SAMP, STDDEV_POP, STDDEV_SAMP, GREATEST, LEAST, COVAR_POP, COVAR_SAMP, CORR, REGR_INTERCEPT, REGR_R2, REGR_SLOPE, REGR_SXY
- Fungsi Boolean berikut: =, <, , <=>, >=, <=>
- Fungsi matematika berikut (tidak didukung jika ANSI dinonaktifkan): +, -, *, %, /
- Operator lain-lain | dan~
- Pengurutan, ketika digunakan dengan limitasi
Pushdown berikut ini tidak didukung:
- Joins
- Fungsi Windows
Pemetaan jenis data
Saat Anda membaca dari PostgreSQL ke Spark, peta jenis data sebagai berikut:
| Jenis PostgreSQL | Jenis Spark |
|---|---|
| numeric | DecimalType |
| int2 | ShortType |
| int4 (jika tidak ditandatangani) | IntegerType |
| int8, oid, xid, int4 (jika ditandatangani) | LongType |
| float4 | FloatType |
| presisi ganda, float8 | DoubleType |
| char | CharType |
| nama, varchar, tid | VarcharType |
| bpchar, karakter bervariasi, json, uang, titik, super, teks | StringType |
| bytea, geometri, varbyte | BinaryType |
| bit, bool | BooleanType |
| date | DateType |
| tabstime, time, time with time zone, timetz, time without time zone, timestamp with time zone, timestamptz, timestamptz without time zone* | TimestampType/TimestampNTZType |
| Jenis array Postgresql** | ArrayType |
*Saat Anda membaca dari Postgresql, Postgresql Timestamp dipetakan ke Spark TimestampType jika preferTimestampNTZ = false (default). Postgresql Timestamp dipetakan ke TimestampNTZType jika preferTimestampNTZ = true.
**Jenis array terbatas didukung.