INSERT OVERWRITE DIRECTORY

Si applica a:check contrassegnato sì controllo SQL databricks contrassegnato come sì Databricks Runtime

Sovrascrive i dati esistenti nella directory con i nuovi valori usando un determinato formato di file Spark. Specificare la riga inserita per espressioni di valore o il risultato di una query.

Sintassi

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parametri

  • directory_path

    Directory di destinazione. È anche possibile specificare in OPTIONS usando path. La LOCAL parola chiave viene usata per specificare che la directory si trova nel file system locale.

  • file_format

    Formato di file da usare per l'inserimento. Le opzioni valide sono TEXT, JSONORCCSVPARQUETHIVEJDBC, LIBSVMo un nome completo della classe di un'implementazione personalizzata di .org.apache.spark.sql.execution.datasources.FileFormat

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Specifica una o più opzioni per la scrittura del formato di file.

  • VALUES ( { valore | NULL } [ , ... ] ) [ , ( ... ) ]

    Valori da inserire. È possibile inserire un valore specificato in modo esplicito o null. È necessario utilizzare una virgola per separare ogni valore nella clausola . È possibile specificare più set di valori per inserire più righe.

  • Query

    Query che produce le righe da inserire. Uno dei formati seguenti:

    • Istruzione SELECT
    • Istruzione TABLE
    • Istruzione FROM

Esempi

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;