Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Gäller för: Databricks SQL
Databricks Runtime
Skriver över befintliga data i katalogen med de nya värdena med ett visst Spark-filformat. Du anger den infogade raden efter värdeuttryck eller resultatet av en fråga.
Syntax
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameterar
directory_path
Målkatalogen. Det kan också anges i
OPTIONS
med hjälp avpath
. NyckelordetLOCAL
används för att ange att katalogen finns i det lokala filsystemet.filformat
Filformatet som ska användas för infogningen. Giltiga alternativ är
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
LIBSVM
eller ett fullständigt kvalificerat klassnamn för en anpassad implementering avorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , ... ] )
Anger ett eller flera alternativ för skrivning av filformatet.
VALUES ( { värde | NULL } [ , ... ] ) [ , ( … ) ]
De värden som ska infogas. Antingen kan ett uttryckligt angivet värde eller en NULL infogas. Ett kommatecken måste användas för att avgränsa varje värde i -satsen. Fler än en uppsättning värden kan anges för att infoga flera rader.
fråga
En fråga som skapar de rader som ska infogas. Något av följande format:
- En
SELECT
utsaga - En
TABLE
påstående - En
FROM
uttalande
- En
Exempel
INSERT OVERWRITE DIRECTORY '/Volumes/my_catalog/my_schema/my_volume/'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/Volumes/my_catalog/my_schema/my_volume/', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;