INSERT OVERWRITE DIRECTORY

適用于:核取標示為是 Databricks SQL 檢查標示為是 Databricks Runtime

使用指定的 Spark 檔案格式,以新的值覆寫目錄中的現有資料。 您可以依值運算式或查詢的結果來指定插入的資料列。

語法

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

參數

  • directory_path

    目的地目錄。 您也可以使用 path 在 中 OPTIONS 指定。 關鍵字 LOCAL 是用來指定目錄位於本機檔案系統上。

  • file_format

    要用於插入的檔案格式。 有效的選項包括 TEXTCSV 、、 JDBCORCPARQUETHIVEJSONLIBSVM 或 自訂實 org.apache.spark.sql.execution.datasources.FileFormat 作的完整類別名稱。

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    指定寫入檔案格式的一或多個選項。

  • VALUES ( { value |Null } [ , ... ] ) [ , ( ... ) ]

    要插入的值。 可以插入明確指定的值或 Null。 逗號必須用來分隔 子句中的每個值。 您可以指定一組以上的值來插入多個資料列。

  • 查詢

    產生要插入之資料列的查詢。 下列其中一種格式:

    • 語句 SELECT
    • 語句 TABLE
    • 語句 FROM

例子

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;