Membuat skema

Halaman ini memperlihatkan cara membuat skema di Unity Catalog dan metastore Hive versi lama.

Untuk mempelajari tentang skema di Azure Databricks, termasuk perbandingan perilaku skema di Metastore Unity Catalog dan Apache Hive, lihat Apa itu skema di Azure Databricks?.

Note

INFORMATION_SCHEMA adalah nama yang dicadangkan. Setiap katalog Unity Catalog secara otomatis menyertakan INFORMATION_SCHEMA hanya-baca yang disediakan sistem, sehingga Anda tidak dapat membuat skema pengguna dengan nama tersebut. Lihat Skema informasi.

Sebelum Anda mulai

Untuk membuat skema di Unity Catalog:

  • Anda harus memiliki metastore Unity Catalog ditautkan ke ruang kerja tempat Anda melakukan pembuatan skema.
  • Anda harus memiliki USE CATALOGCREATE SCHEMA dan pada katalog induk skema. Baik admin metastore atau pemilik katalog dapat memberi Anda hak istimewa ini. Jika Anda adalah admin metastore, Anda dapat memberikan hak istimewa ini kepada diri Anda sendiri.
  • Untuk menentukan lokasi penyimpanan terkelola opsional untuk tabel dan volume dalam skema, lokasi eksternal harus ditentukan dalam Katalog Unity, dan Anda harus memiliki hak istimewa CREATE MANAGED STORAGE di lokasi eksternal. Lihat Menentukan lokasi penyimpanan terkelola di Unity Catalog.
  • Kluster yang Anda gunakan untuk menjalankan notebook untuk membuat skema harus menggunakan mode akses yang sesuai dengan Katalog Unity. Lihat Mode akses. Gudang SQL selalu mendukung Katalog Unity.

Untuk membuat skema pada metastore Hive:

Membuat skema

Untuk membuat skema di Unity Catalog, Anda bisa menggunakan perintah Catalog Explorer atau SQL. Untuk membuat skema di metastore Apache Hive, Anda harus menggunakan perintah SQL.

Eksplorer Katalog

  1. Masuk ke ruang kerja yang ditautkan ke metastore Unity Catalog.
  2. Klik ikon Data.Katalog.
  3. Di panel Katalog di sebelah kiri, klik katalog tempat Anda ingin membuat skema.
  4. Di panel detail, klik Buat skema.
  5. Beri nama skema dan tambahkan komentar apa pun yang akan membantu pengguna memahami tujuan skema.
  6. (Opsional) Tentukan lokasi penyimpanan terkelola. Memerlukan hak akses CREATE MANAGED STORAGE pada lokasi eksternal target. Lihat Tentukan lokasi penyimpanan terkelola di Katalog Unity dan lokasi penyimpanan terkelola untuk skema.
  7. Klik Buat.
  8. Berikan hak istimewa pada skema. Lihat Kelola hak akses di Unity Catalog.
  9. Klik Simpan.

SQL

  1. Jalankan perintah SQL berikut ini di buku catatan atau editor kueri SQL. Item dalam tanda kurung bersifat opsional. Anda dapat menggunakan SCHEMA atau DATABASE. Ganti nilai placeholder ini:

    • <catalog-name>: Nama katalog induk untuk skema. Jika Anda membuat skema di metastore Apache Hive dan Anda berada di ruang kerja yang mendukung Katalog Unity, gunakan hive_metastore sebagai nama katalog. Jika ruang kerja Anda tidak diaktifkan untuk Katalog Unity, jangan tentukan katalog sama sekali.
    • <schema-name>: Nama untuk skema.
    • <location-path>: Jalur opsional ke lokasi penyimpanan terkelola. Gunakan dengan MANAGED LOCATION untuk Unity Catalog dan dengan LOCATION untuk Hive metastore. Di Unity Catalog, Anda harus memiliki hak istimewa CREATE MANAGED STORAGE pada lokasi eksternal untuk jalur yang Anda tentukan. Lihat Tentukan lokasi penyimpanan terkelola di Katalog Unity dan lokasi penyimpanan terkelola untuk skema.
    • <comment>: Deskripsi opsional atau komentar lainnya.
    • <property-key> = <property-value> [ , ... ]: Opsional. Properti dan nilai Spark SQL yang disetel untuk skema.

    Untuk deskripsi parameter yang lebih rinci, lihat CREATE SCHEMA.

    CREATE { DATABASE | SCHEMA } [ IF NOT EXISTS ] <catalog-name>.<schema-name>
        [ MANAGED LOCATION '<location-path>' | LOCATION '<location-path>']
        [ COMMENT <comment> ]
        [ WITH DBPROPERTIES ( <property-key = property_value [ , ... ]> ) ];
    
  2. Berikan hak istimewa pada skema. Untuk hak istimewa Unity Catalog, lihat Mengelola hak istimewa di Unity Catalog.

Anda juga dapat membuat skema dengan menggunakan penyedia Databricks Terraform dan databricks_schema. Anda dapat mengambil daftar ID skema dengan menggunakan databricks_schemas

Langkah berikutnya