INSERT OVERWRITE DIRECTORY
A következőkre vonatkozik: Databricks SQL
Databricks Runtime
Felülírja a címtárban lévő meglévő adatokat az új értékekkel egy adott Spark-fájlformátum használatával. A beszúrt sort értékkifejezések vagy lekérdezés eredménye alapján adhatja meg.
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
directory_path
A célkönyvtár. A beállítás a következővel is megadható
OPTIONS
path
: . ALOCAL
kulcsszó azt határozza meg, hogy a könyvtár a helyi fájlrendszerben található-e.file_format
A beszúráshoz használandó fájlformátum. Az érvényes beállítások:
TEXT
,CSV
,JSON
,JDBC
PARQUET
,ORC
, ,HIVE
LIBSVM
, .org.apache.spark.sql.execution.datasources.FileFormat
OPTIONS ( { key [ = ] val } [ , ... ] )
A fájlformátum írásának egy vagy több lehetőségét adja meg.
VALUES ( { érték | NULL } [ , ... ] ) [ , ( … ) ]
A beszúrandó értékek. Beszúrhat egy explicit módon megadott értéket vagy null értéket. A záradék egyes értékeit vesszővel kell elválasztani. Több sor beszúrásához több érték is megadható.
lekérdezés
Egy lekérdezés, amely létrehozza a beszúrni kívánt sorokat. Az alábbi formátumok egyike:
- Egy
SELECT
utasítás - Egy
TABLE
utasítás - Egy
FROM
utasítás
- Egy
INSERT OVERWRITE DIRECTORY '/Volumes/my_catalog/my_schema/my_volume/'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/Volumes/my_catalog/my_schema/my_volume/', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;