Compartir a través de


INSERT OVERWRITE DIRECTORY

Se aplica a:casilla marcada como Sí Databricks SQL casilla marcada como Sí Databricks Runtime

Sobrescribe los datos existentes en el directorio con los nuevos valores, para lo que usa un formato de archivo de Spark dado. Especifique la fila insertada por expresiones de valor o el resultado de una consulta.

Sintaxis

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parámetros

  • directory_path

    El directorio de destino. También se puede especificar en OPTIONS mediante path. La palabra clave LOCAL se usa para especificar que el directorio está en el sistema de archivos local.

  • file_format

    Formato de archivo que se usa para la inserción. Las opciones válidas son TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE u LIBSVM, o un nombre de clase completo de una implementación personalizada de org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , … ] )

    Especifica una o varias opciones para escribir el formato de archivo.

  • VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]

    Valores que se van a insertar. Se puede insertar un valor especificado explícitamente o un valor NULL. Se debe usar una coma para separar cada valor de la cláusula. Se puede especificar más de un conjunto de valores para insertar varias filas.

  • consulta

    Consulta que genera las filas que se van a insertar. Uno de los siguientes formatos:

    • Una instrucción SELECT
    • Una instrucción TABLE
    • Una instrucción FROM

Ejemplos

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;