INSERT OVERWRITE 디렉터리

적용 대상:검사 예 Databricks SQL 검사 예 Databricks Runtime으로 표시됨

지정된 Spark 파일 형식을 사용하여 디렉터리의 기존 데이터를 새 값으로 덮어씁니다. 값 식 또는 쿼리 결과별로 삽입된 행을 지정합니다.

구문

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

매개 변수

  • directory_path

    대상 디렉터리입니다. 를 사용하여 path에서 OPTIONS 지정할 수도 있습니다. LOCAL 키워드(keyword) 디렉터리가 로컬 파일 시스템에 있음을 지정하는 데 사용됩니다.

  • file_format

    삽입에 사용할 파일 형식입니다. 유효한 옵션은 TEXT, , CSV, JSON, JDBCPARQUET, ORC, HIVE, LIBSVM또는 사용자 지정 구현의 정규화된 클래스 이름입니다org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    파일 형식 작성을 위한 하나 이상의 옵션을 지정합니다.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]

    삽입할 값입니다. 명시적으로 지정된 값 또는 NULL을 삽입할 수 있습니다. 절의 각 값을 구분하려면 쉼표 를 사용해야 합니다. 여러 행을 삽입하도록 둘 이상의 값 집합을 지정할 수 있습니다.

  • 쿼리

    삽입할 행을 생성하는 쿼리입니다. 다음 형식 중 하나입니다.

    • SELECT
    • TABLE
    • FROM

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;