PERLIHATKAN TABEL DIPERLUAS
Berlaku untuk: pemeriksaan Databricks SQL Databricks Runtime
Memperlihatkan informasi untuk semua tabel yang cocok dengan ekspresi reguler yang diberikan.
Output mencakup informasi tabel dasar dan informasi sistem file seperti Last Access
, , Created By
, Type
, Table Properties
Provider
, Location
, Serde Library
, InputFormat
, OutputFormat
, Storage Properties
, Partition Provider
, Partition Columns
, , dan Schema
.
Jika spesifikasi partisi ada, itu menghasilkan informasi spesifik sistem file partisi yang diberikan seperti Partition Parameters
dan Partition Statistics
. Anda tidak dapat menggunakan ekspresi reguler tabel dengan spesifikasi partisi.
Catatan
Untuk kompatibilitas dengan Apache Spark, perintah ini merender jenis kolom tabel menggunakan notasi Apache Spark. Pemetaan ke SQL dijelaskan dalam Pemetaan bahasa. Cara lain untuk mengambil informasi kolom tabel adalah DESCRIBE TABLE, dan di Unity Catalog INFORMATION_SCHEMA. KOLOM.
Sintaks
SHOW TABLE EXTENDED [ { IN | FROM } schema_name ] LIKE regex_pattern
[ PARTITION clause ]
Parameter
-
Menentukan nama skema. Jika tidak disediakan, gunakan skema saat ini.
regex_pattern
Pola ekspresi reguler yang digunakan untuk memfilter tabel yang tidak diinginkan.
- Kecuali untuk
*
karakter dan|
, pola bekerja seperti ekspresi reguler. *
sendiri cocok dengan 0 karakter atau lebih dan|
digunakan untuk memisahkan beberapa ekspresi reguler yang berbeda, yang salah satunya dapat cocok.- Kosong awal dan akhir dipangkas dalam pola input sebelum diproses. Kecocokan pola tidak peka huruf besar/kecil.
- Kecuali untuk
-
Secara opsional menentukan partisi. Anda tidak dapat menggunakan pola regex tabel dengan klausa
PARTITION
.
Contoh
-- Assumes `employee` table partitioned by column `grade`
> CREATE TABLE employee(name STRING, grade INT) PARTITIONED BY (grade);
> INSERT INTO employee PARTITION (grade = 1) VALUES ('sam');
> INSERT INTO employee PARTITION (grade = 2) VALUES ('suj');
-- Show the details of the table
> SHOW TABLE EXTENDED LIKE 'employee';
database tableName isTemporary information
-------- --------- ----------- --------------------------------------------------------------
default employee false Database: default
Table: employee
Owner: root
Created Time: Fri Aug 30 15:10:21 IST 2019
Last Access: Thu Jan 01 05:30:00 IST 1970
Created By: Spark 3.0.0
Type: MANAGED
Provider: hive
Table Properties: [transient_lastDdlTime=1567158021]
Location: file:/opt/spark1/spark/spark-warehouse/employee
Serde Library: org.apache.hadoop.hive.serde2.lazy
.LazySimpleSerDe
InputFormat: org.apache.hadoop.mapred.TextInputFormat
OutputFormat: org.apache.hadoop.hive.ql.io
.HiveIgnoreKeyTextOutputFormat
Storage Properties: [serialization.format=1]
Partition Provider: Catalog
Partition Columns: [`grade`]
Schema: root
-- name: string (nullable = true)
-- grade: integer (nullable = true)
-- show multiple table details with pattern matching
> SHOW TABLE EXTENDED LIKE 'employe*';
database tableName isTemporary information
-------- --------- ----------- --------------------------------------------------------------
default employee false Database: default
Table: employee
Owner: root
Created Time: Fri Aug 30 15:10:21 IST 2019
Last Access: Thu Jan 01 05:30:00 IST 1970
Created By: Spark 3.0.0
Type: MANAGED
Provider: hive
Table Properties: [transient_lastDdlTime=1567158021]
Location: file:/opt/spark1/spark/spark-warehouse/employee
Serde Library: org.apache.hadoop.hive.serde2.lazy
.LazySimpleSerDe
InputFormat: org.apache.hadoop.mapred.TextInputFormat
OutputFormat: org.apache.hadoop.hive.ql.io
.HiveIgnoreKeyTextOutputFormat
Storage Properties: [serialization.format=1]
Partition Provider: Catalog
Partition Columns: [`grade`]
Schema: root
-- name: string (nullable = true)
-- grade: integer (nullable = true)
default employee1 false Database: default
Table: employee1
Owner: root
Created Time: Fri Aug 30 15:22:33 IST 2019
Last Access: Thu Jan 01 05:30:00 IST 1970
Created By: Spark 3.0.0
Type: MANAGED
Provider: hive
Table Properties: [transient_lastDdlTime=1567158753]
Location: file:/opt/spark1/spark/spark-warehouse/employee1
Serde Library: org.apache.hadoop.hive.serde2.lazy
.LazySimpleSerDe
InputFormat: org.apache.hadoop.mapred.TextInputFormat
OutputFormat: org.apache.hadoop.hive.ql.io
.HiveIgnoreKeyTextOutputFormat
Storage Properties: [serialization.format=1]
Partition Provider: Catalog
Schema: root
-- name: string (nullable = true)
-- show partition file system details
> SHOW TABLE EXTENDED IN default LIKE 'employee' PARTITION (grade = 1);
database tableName isTemporary information
-------- --------- ----------- --------------------------------------------------------------
default employee false Partition Values: [grade=1]
Location: file:/opt/spark1/spark/spark-warehouse/employee
/grade=1
Serde Library: org.apache.hadoop.hive.serde2.lazy
.LazySimpleSerDe
InputFormat: org.apache.hadoop.mapred.TextInputFormat
OutputFormat: org.apache.hadoop.hive.ql.io
.HiveIgnoreKeyTextOutputFormat
Storage Properties: [serialization.format=1]
Partition Parameters: {rawDataSize=-1, numFiles=1,
transient_lastDdlTime=1567158221, totalSize=4,
COLUMN_STATS_ACCURATE=false, numRows=-1}
Created Time: Fri Aug 30 15:13:41 IST 2019
Last Access: Thu Jan 01 05:30:00 IST 1970
Partition Statistics: 4 bytes
-- show partition file system details with regex fail
> SHOW TABLE EXTENDED IN default LIKE 'empl*' PARTITION (grade = 1);
Error: TABLE_OR_VIEW_NOT_FOUND