INSERT OVERWRITE DIRECTORY
Van toepassing op: Databricks Databricks Runtime
Hiermee overschrijft u de bestaande gegevens in de map met de nieuwe waarden met behulp van een opgegeven Spark-bestandsindeling. U geeft de ingevoegde rij op met waarde-expressies of het resultaat van een query.
Syntaxis
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameters
directory_path
De doelmap. Het kan ook worden opgegeven in
OPTIONS
met behulp vanpath
. HetLOCAL
trefwoord wordt gebruikt om aan te geven dat de map zich in het lokale bestandssysteem bevindt.file_format
De bestandsindeling die moet worden gebruikt voor de invoeging. Geldige opties zijn
TEXT
,CSV
,JSON
,JDBC
,PARQUET
, ,ORC
HIVE
,LIBSVM
of een volledig gekwalificeerde klassenaam van een aangepaste implementatie vanorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , ... ] )
Hiermee geeft u een of meer opties voor het schrijven van de bestandsindeling.
WAARDEN ( { waarde | NULL } [ , ... ] ) [ , ( ... ) ]
De waarden die moeten worden ingevoegd. Een expliciet opgegeven waarde of een NULL kan worden ingevoegd. Er moet een komma worden gebruikt om elke waarde in de component van elkaar te scheiden. Er kan meer dan één set waarden worden opgegeven om meerdere rijen in te voegen.
Query
Een query die de rijen produceert die moeten worden ingevoegd. Een van de volgende indelingen:
- Een
SELECT
instructie - Een
TABLE
instructie - Een
FROM
instructie
- Een
Voorbeelden
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;