Partager via


INSERT OVERWRITE DIRECTORY

S’applique à : case marquée oui Databricks SQL case marquée oui Databricks Runtime

Remplace les données existantes dans le répertoire par les nouvelles valeurs en utilisant un format de fichier Spark donné. Vous spécifiez les lignes insérées par des expressions de valeur ou le résultat d’une requête.

Syntaxe

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Paramètres

  • directory_path

    Répertoire de destination. Il ne peut être spécifié que dans OPTIONS à l’aide de path. Le mot clé LOCAL est utilisé pour spécifier que le répertoire se trouve sur le système de fichiers local.

  • file_format

    Format de fichier à utiliser pour l’insertion. Les options valides sont TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, LIBSVM, ou un nom de classe complet d’une implémentation personnalisée de org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , … ] )

    Spécifie une ou plusieurs options pour l’écriture du format de fichier.

  • VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]

    Valeurs à insérer. Vous pouvez insérer une valeur spécifiée explicitement ou une valeur NULL. Une virgule doit être utilisée pour séparer les valeurs dans la clause. Vous pouvez spécifier plusieurs jeux de valeurs pour insérer plusieurs lignes.

  • query

    Requête qui produit les lignes à insérer. Les formats possibles sont les suivants :

    • Instruction SELECT
    • Instruction TABLE
    • Instruction FROM

Exemples

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;