Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Ini adalah referensi perintah SQL untuk Databricks SQL dan Databricks Runtime.
Untuk informasi tentang menggunakan SQL dengan Alur Deklaratif Lakeflow Spark, lihat Referensi bahasa Alur SQL.
Note
Databricks SQL Serverless tidak tersedia di Azure Tiongkok. Databricks SQL tidak tersedia di wilayah Azure Government.
Referensi umum
Referensi umum ini menjelaskan jenis data, fungsi, pengidentifikasi, literal, dan semantik:
- label "Berlaku untuk"
- Cara membaca diagram sintaksis
- Cara menambahkan komentar ke pernyataan SQL
- Parameter konfigurasi
- Tipe data dan literal
- Functions
- aturan jenis data SQL
- Pola tanggalwaktu
- Fungsi geospasial H3
- Fungsi geospasial ST
- Fungsi Lambda
- Fungsi jendela
- Identifiers
- Names
- IDENTIFIER klausa
- Semantik NULL
- Expressions
- Penanda parameter
- Variables
- Resolusi nama
- Ekspresi jalur JSON
- Collation
- Partitions
- Kepatuhan ANSI dalam Databricks Runtime
- Kompatibilitas Apache Hive
- Principals
- Hak Istimewa dan objek yang dapat diamankan di Katalog Unity
- Hak istimewa dan objek yang dapat diamankan di metastore Hive
- Segarkan metadata Katalog Unity
- Lokasi eksternal
- Tabel eksternal
- Credentials
- Volumes
- Pembuatan Skrip SQL
- Berbagi Delta
- Kueri gabungan (Federasi Lakehouse)
- Skema informasi
- Kata yang dicadangkan
Pernyataan DDL
Anda menggunakan pernyataan definisi data untuk membuat atau memodifikasi struktur objek database dalam sebuah database:
- ALTER CATALOG
- ALTER CONNECTION
- ALTER CREDENTIAL
- ALTER DATABASE
- UBAH LOKASI
- ALTER MATERIALIZED VIEW
- ALTER PROVIDER
- ALTER RECIPIENT
- ALTER STREAMING TABLE
- ALTER TABLE
- ALTER SCHEMA
- ALTER SHARE
- ALTER VIEW
- ALTER VOLUME
- COMMENT ON
- BUAT INDEKS BLOOMFILTER
- CREATE CATALOG
- CREATE CONNECTION
- CREATE DATABASE
- CREATE FUNCTION (SQL)
- CREATE FUNCTION (Eksternal)
- BUAT LOKASI
- CREATE MATERIALIZED VIEW
- BUAT PROSEDUR
- CREATE RECIPIENT
- CREATE SCHEMA
- CREATE SERVER
- CREATE SHARE
- CREATE STREAMING TABLE
- CREATE TABLE
- CREATE VIEW
- CREATE VOLUME
- DECLARE VARIABLE
- HILANGKAN INDEKS BLOOMFILTER
- DROP CATALOG
- DROP CONNECTION
- DROP DATABASE
- DROP CREDENTIAL
- DROP FUNCTION
- TEMPAT PENURUNAN
- HAPUS PROSEDUR
- DROP PROVIDER
- DROP RECIPIENT
- DROP SCHEMA
- DROP SHARE
- DROP TABLE
- DROP VARIABLE
- DROP VIEW
- DROP VOLUME
- MSCK REPAIR TABLE
- REFRESH FOREIGN (CATALOG, SCHEMA, atau TABLE)
- REFRESH (MATERIALIZED VIEW atau STREAMING TABLE)
- SET TAG
- SYNC
- TRUNCATE TABLE
- UNDROP TABLE
- UNSET TAG
Pernyataan DML
Anda menggunakan pernyataan manipulasi data untuk menambahkan, mengubah, atau menghapus data dari tabel Delta Lake:
- COPY INTO
- DELETE FROM
- INSERT MENJADI
- INSERT OVERWRITE DIRECTORY
- INSERT OVERWRITE DIRECTORY dengan format Hive
- LOAD DATA
- MERGE INTO
- UPDATE
Pernyataan pengambilan data
Anda menggunakan kueri untuk mengambil baris dari satu atau beberapa tabel sesuai dengan klausa yang ditentukan. Sintaks lengkap dan deskripsi singkat klausa yang didukung dijelaskan dalam artikel Kueri .
Pernyataan SQL SELECT dan VALUES terkait juga termasuk dalam bagian ini.
Selain kueri SQL standar dalam gaya SELECT FROM WHERE, Azure Databricks juga mendukung Sintaks Alur SQL yang menyusun SQL sebagai serangkaian operasi berantai seperti FROM |> WHERE |> SELECT.
Databricks SQL juga menyediakan kemampuan untuk memeriksa rencana logis dan fisik yang dihasilkan untuk kueri menggunakan pernyataan EXPLAIN.
Pernyataan Delta Lake
Anda menggunakan pernyataan Delta Lake SQL untuk mengelola tabel yang disimpan dalam format Delta Lake:
- CACHE SELECT
- CONVERT TO DELTA
- DESCRIBE HISTORY
- FSCK REPAIR TABLE
- GENERATE
- OPTIMIZE
- REORG TABLE
- RESTORE
- VACUUM
Untuk detail tentang menggunakan pernyataan Delta Lake, lihat Apa itu Delta Lake di Azure Databricks?.
Pernyataan pembuatan skrip SQL
Anda menggunakan pembuatan skrip SQL untuk menjalankan logika prosedural di SQL.
- Pernyataan CASE
- BEGIN END pernyataan gabungan
- Pernyataan FOR
- GET pernyataan diagnostik
- pernyataan IF THEN ELSE
- Pernyataan ITERATE
- Pernyataan LEAVE
- Pernyataan LOOP
- Pernyataan REPEAT
- Pernyataan RESIGNAL
- Statement SIGNAL
- Pernyataan WHILE
Pernyataan tambahan
Anda menggunakan pernyataan bantu untuk mengumpulkan statistik, mengelola cache, menjelajahi metadata, mengatur konfigurasi, dan mengatur sumber daya:
- Analisis pernyataan
- Pernyataan Apache Spark Cache
- Menjelaskan pernyataan
- Perlihatkan pernyataan
- Konfigurasi, manajemen variabel, dan pernyataan lain-lain
- Manajemen sumber daya
Analisis pernyataan
Pernyataan Penggunaan Cache Apache Spark
Berlaku untuk:
Databricks Runtime
Menjelaskan pernyataan
- DESCRIBE CATALOG
- DESCRIBE CONNECTION
- DESCRIBE CREDENTIAL
- DESCRIBE DATABASE
- DESCRIBE FUNCTION
- JELASKAN LOKASI
- MENJELASKAN PROSEDUR
- DESCRIBE PROVIDER
- DESCRIBE QUERY
- DESCRIBE RECIPIENT
- DESCRIBE SCHEMA
- DESCRIBE SHARE
- DESCRIBE TABLE
- DESCRIBE VOLUME
Perlihatkan pernyataan
- LIST
- SHOW ALL IN SHARE
- SHOW CATALOGS
- SHOW COLUMNS
- SHOW CONNECTIONS
- SHOW CREATE TABLE
- SHOW CREDENTIALS
- SHOW DATABASES
- SHOW FUNCTIONS
- SHOW GROUPS
- PERLIHATKAN LOKASI
- SHOW PARTITIONS
- TAMPILKAN PROSEDUR
- SHOW PROVIDERS
- SHOW RECIPIENTS
- SHOW SCHEMAS
- SHOW SHARES
- SHOW SHARES IN PROVIDER
- TAMPILKAN TABLE
- SHOW TABLES
- SHOW TABLES DROPPED
- SHOW TBLPROPERTIES
- SHOW USERS
- SHOW VIEWS
- SHOW VOLUMES
Konfigurasi, manajemen variabel, dan pernyataan lain-lain
- CALL
- EXECUTE IMMEDIATE
- RESET
- SET
- SET RECIPIENT
- SET TIMEZONE
- SET VARIABLE
- USE CATALOG
- USE DATABASE
- USE SCHEMA
Manajemen sumber daya
Berlaku untuk:
Databricks Runtime
Berlaku untuk:
Databricks SQL Connector
Pernyataan keamanan
Anda menggunakan pernyataan SQL keamanan untuk mengelola akses ke data:
- ALTER GROUP
- CREATE GROUP
- DENY
- DROP GROUP
- GRANT
- GRANT BERBAGI
- PERBAIKI HAK ISTIMEWA
- REVOKE
- REVOKE BERBAGI
- SHOW GRANTS
- SHOW GRANTS ON SHARE
- SHOW GRANTS TO RECIPIENT
Untuk detail tentang menggunakan pernyataan ini, lihat Hak istimewa metastore Apache Hive dan objek yang dapat diamankan (warisan).