INSERT OVERWRITE DIRECTORY
適用于: Databricks SQL Databricks Runtime
使用指定的 Spark 檔案格式,以新的值覆寫目錄中的現有資料。 您可以依值運算式或查詢的結果來指定插入的資料列。
語法
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
參數
directory_path
目的地目錄。 您也可以使用
path
在 中OPTIONS
指定。 關鍵字LOCAL
是用來指定目錄位於本機檔案系統上。file_format
要用於插入的檔案格式。 有效的選項包括
TEXT
、CSV
、、JDBC
ORC
PARQUET
HIVE
JSON
、LIBSVM
或 自訂實org.apache.spark.sql.execution.datasources.FileFormat
作的完整類別名稱。OPTIONS ( { key [ = ] val } [ , ... ] )
指定寫入檔案格式的一或多個選項。
VALUES ( { value |Null } [ , ... ] ) [ , ( ... ) ]
要插入的值。 可以插入明確指定的值或 Null。 逗號必須用來分隔 子句中的每個值。 您可以指定一組以上的值來插入多個資料列。
查詢
產生要插入之資料列的查詢。 下列其中一種格式:
- 語句
SELECT
- 語句
TABLE
- 語句
FROM
- 語句
例子
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;