Not
Åtkomst till denna sida kräver auktorisation. Du kan prova att logga in eller byta katalog.
Åtkomst till denna sida kräver auktorisation. Du kan prova att byta katalog.
Gäller för:
Databricks SQL
Databricks Runtime
Skriver över befintliga data i katalogen med de nya värdena med ett visst Spark-filformat. Du anger den infogade raden efter värdeuttryck eller resultatet av en fråga.
Syntax
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameterar
directory_path
Målkatalogen. Det kan också anges i
OPTIONSmed hjälp avpath. NyckelordetLOCALanvänds för att ange att katalogen finns i det lokala filsystemet.filformat
Filformatet som ska användas för infogningen. Giltiga alternativ är
TEXT,CSV,JSON,JDBC,PARQUET,ORC,HIVELIBSVMeller ett fullständigt kvalificerat klassnamn för en anpassad implementering avorg.apache.spark.sql.execution.datasources.FileFormat.OPTIONS ( { key [ = ] val } [ , ... ] )
Anger ett eller flera alternativ för skrivning av filformatet.
VALUES ( { värde | NULL } [ , ... ] ) [ , ( … ) ]
De värden som ska infogas. Antingen kan ett uttryckligt angivet värde eller en NULL infogas. Ett kommatecken måste användas för att avgränsa varje värde i -satsen. Fler än en uppsättning värden kan anges för att infoga flera rader.
fråga
En fråga som skapar de rader som ska infogas. Något av följande format:
- En
SELECTutsaga - En
TABLEutsaga - En
FROMutsaga
- En
Exempel
INSERT OVERWRITE DIRECTORY '/Volumes/my_catalog/my_schema/my_volume/'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/Volumes/my_catalog/my_schema/my_volume/', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;