Olvasás angol nyelven

Megosztás a következőn keresztül:


INSERT OVERWRITE DIRECTORY

A következőkre vonatkozik:jelölje be az igennel jelölt jelölőnégyzetet Databricks SQL jelölje be az igennel jelölt jelölőnégyzetet Databricks Runtime

Felülírja a címtárban lévő meglévő adatokat az új értékekkel egy adott Spark-fájlformátum használatával. A beszúrt sort értékkifejezések vagy lekérdezés eredménye alapján adhatja meg.

Syntax

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Paraméterek

  • directory_path

    A célkönyvtár. A beállítás a következővel is megadható OPTIONSpath: . A LOCAL kulcsszó azt határozza meg, hogy a könyvtár a helyi fájlrendszerben található-e.

  • file_format

    A beszúráshoz használandó fájlformátum. Az érvényes beállítások: TEXT, CSV, JSON, JDBCPARQUET, ORC, , HIVELIBSVM, .org.apache.spark.sql.execution.datasources.FileFormat

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    A fájlformátum írásának egy vagy több lehetőségét adja meg.

  • VALUES ( { érték | NULL } [ , ... ] ) [ , ( … ) ]

    A beszúrandó értékek. Beszúrhat egy explicit módon megadott értéket vagy null értéket. A záradék egyes értékeit vesszővel kell elválasztani. Több sor beszúrásához több érték is megadható.

  • lekérdezés

    Egy lekérdezés, amely létrehozza a beszúrni kívánt sorokat. Az alábbi formátumok egyike:

    • Egy SELECT utasítás
    • Egy TABLE utasítás
    • Egy FROM utasítás

Példák

INSERT OVERWRITE DIRECTORY '/Volumes/my_catalog/my_schema/my_volume/'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/Volumes/my_catalog/my_schema/my_volume/', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;