INSERT OVERWRITE 디렉터리
적용 대상: Databricks SQL 검사 예 Databricks Runtime
지정된 Spark 파일 형식을 사용하여 디렉터리의 기존 데이터를 새 값으로 덮어씁니다. 값 식 또는 쿼리 결과별로 삽입된 행을 지정합니다.
구문
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
매개 변수
directory_path
대상 디렉터리입니다. 를 사용하여
path
에서OPTIONS
지정할 수도 있습니다.LOCAL
키워드(keyword) 디렉터리가 로컬 파일 시스템에 있음을 지정하는 데 사용됩니다.file_format
삽입에 사용할 파일 형식입니다. 유효한 옵션은
TEXT
, ,CSV
,JSON
,JDBC
PARQUET
,ORC
,HIVE
,LIBSVM
또는 사용자 지정 구현의 정규화된 클래스 이름입니다org.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , ... ] )
파일 형식 작성을 위한 하나 이상의 옵션을 지정합니다.
VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]
삽입할 값입니다. 명시적으로 지정된 값 또는 NULL을 삽입할 수 있습니다. 절의 각 값을 구분하려면 쉼표 를 사용해야 합니다. 여러 행을 삽입하도록 둘 이상의 값 집합을 지정할 수 있습니다.
쿼리
삽입할 행을 생성하는 쿼리입니다. 다음 형식 중 하나입니다.
- 문
SELECT
- 문
TABLE
- 문
FROM
- 문
예
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;