Freigeben über


INSERT OVERWRITE DIRECTORY

Gilt für:durch Häkchen mit „Ja“ markiert Databricks SQL durch Häkchen mit „Ja“ markiert Databricks Runtime

Überschreibt die vorhandenen Daten im Verzeichnis mit den neuen Werten unter Verwendung eines bestimmten Spark-Dateiformats. Sie geben die eingefügte Zeile über Wertausdrücke oder das Ergebnis einer Abfrage an.

Syntax

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parameter

  • directory_path

    Das Zielverzeichnis. Es kann auch in OPTIONS mit path angegeben werden. Das Schlüsselwort LOCAL wird verwendet, um anzugeben, dass sich das Verzeichnis im lokalen Dateisystem befindet.

  • file_format

    Das Dateiformat für die Einfügung. Gültige Optionen sind TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, LIBSVM oder ein vollqualifizierter Klassenname einer benutzerdefinierten Implementierung von org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , … ] )

    Gibt mindestens eine Option für das Schreiben des Dateiformats an.

  • VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]

    Die einzufügenden Werte. Es kann entweder ein explizit angegebener Wert oder NULL eingefügt werden. Zum Trennen der einzelnen Werte in der Klausel müssen Kommas verwendet werden. Es können mehrere Wertesätze angegeben werden, um mehrere Zeilen einzufügen.

  • query

    Eine Abfrage, die die einzufügenden Zeilen erzeugt. Eines der folgenden Formate:

    • Eine SELECT-Anweisung
    • Eine TABLE-Anweisung
    • Eine FROM-Anweisung

Beispiele

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;