Delen via


INSERT OVERWRITE DIRECTORY

Van toepassing op: vinkje als ja aan Databricks SQL vinkje als ja aan Databricks Runtime

Overschrijft de bestaande gegevens in de map met de nieuwe waarden met behulp van een bepaalde Spark-bestandsindeling. U geeft de ingevoegde rij op op waarde-expressies of het resultaat van een query.

Syntaxis

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parameters

  • directory_path

    De doelmap. Het kan ook worden opgegeven in OPTIONS het gebruik path. Het LOCAL trefwoord wordt gebruikt om op te geven dat de map zich in het lokale bestandssysteem bevindt.

  • file_format

    De bestandsindeling die moet worden gebruikt voor de invoegpositie. Geldige opties zijn TEXT, CSV, JSON, JDBC, PARQUET, , ORC, , HIVEof LIBSVMeen volledig gekwalificeerde klassenaam van een aangepaste implementatie van org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Hiermee geeft u een of meer opties voor het schrijven van de bestandsindeling.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]

    De waarden die moeten worden ingevoegd. Een expliciet opgegeven waarde of een NULL kan worden ingevoegd. Er moet een komma worden gebruikt om elke waarde in de component te scheiden. Er kunnen meerdere waarden worden opgegeven om meerdere rijen in te voegen.

  • query

    Een query die de rijen produceert die moeten worden ingevoegd. Een van de volgende indelingen:

    • Een SELECT instructie
    • Een TABLE instructie
    • Een FROM instructie

Voorbeelden

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;