次の方法で共有


INSERT OVERWRITE DIRECTORY

適用対象: 「はい」のチェック マーク Databricks SQL Databricks Runtime

指定した Spark ファイル形式を使用して、ディレクトリ内の既存のデータを新しい値で上書きします。 挿入された行は、値式またはクエリの結果によって指定します。

構文

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

パラメーター

  • directory_path

    宛先ディレクトリ。 これは、OPTIONSpath を使用しても指定できます。 LOCAL キーワードは、ディレクトリがローカル ファイル システム上にあると指定するために使用します。

  • file_format

    挿入に使用するファイル形式。 有効なオプションは、TEXTCSVJSONJDBCPARQUETORCHIVELIBSVM、または org.apache.spark.sql.execution.datasources.FileFormat のカスタム実装の完全修飾クラス名です。

  • OPTIONS ( { key [ = ] val } [ , … ] )

    ファイル形式の書き込みオプションを 1 つ以上指定します。

  • VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]

    挿入される値。 明示的に指定された値または NULL のいずれかを挿入できます。 句の中でそれぞれの値を区切るには、コンマを使用する必要があります。 複数の行を挿入するために、値のセットを複数指定できます。

  • query

    挿入する行を生成するクエリ。 次のいずれかの形式です。

    • SELECT ステートメント
    • TABLE ステートメント
    • FROM ステートメント

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;