Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Dotyczy:
Databricks SQL
Databricks Runtime
Zastępuje istniejące dane w katalogu nowymi wartościami przy użyciu danego formatu pliku Spark. Należy określić wstawiony wiersz według wyrażeń wartości lub wyniku zapytania.
Składnia
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parametry
directory_path
Katalog docelowy. Można go również określić w
OPTIONSużywającpath. SłowoLOCALkluczowe służy do określania, że katalog znajduje się w lokalnym systemie plików.file_format
Format pliku, który ma być używany do wstawiania. Prawidłowe opcje to
TEXT,CSV,JSON,JDBC,PARQUET,ORC,HIVE,LIBSVMlub w pełni kwalifikowana nazwa klasy niestandardowej implementacjiorg.apache.spark.sql.execution.datasources.FileFormat.OPTIONS ( { key [ = ] val } [ , ... ] )
Określa co najmniej jedną opcję zapisu formatu pliku.
VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]
Wartości do wstawienia. Można wstawić jawnie określoną wartość lub wartość NULL. Przecinek musi być używany do oddzielania każdej wartości w klauzuli . Można określić więcej niż jeden zestaw wartości, aby wstawić wiele wierszy.
query
Zapytanie, które generuje wiersze do wstawienia. Jeden z następujących formatów:
- Instrukcja
SELECT - Instrukcja
TABLE - Instrukcja
FROM
- Instrukcja
Przykłady
INSERT OVERWRITE DIRECTORY '/Volumes/my_catalog/my_schema/my_volume/'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/Volumes/my_catalog/my_schema/my_volume/', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;