Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ta sekcja zawiera szczegółowe informacje na temat programistycznego interfejsu SQL deklaratywnych potoków Lakeflow Spark.
- Aby uzyskać informacje koncepcyjne i omówienie korzystania z języka SQL w potokach deklaratywnych Spark w usłudze Lakeflow, zobacz Opracowywanie kodu potoków deklaratywnych Spark w usłudze Lakeflow za pomocą SQL.
- Aby uzyskać informacje na temat interfejsu API języka Python, zobacz Dokumentację języka Python dla potoków deklaratywnych platformy Spark w usłudze Lakeflow.
- Aby uzyskać więcej informacji na temat języka SQL w usłudze Databricks, zobacz Dokumentacja języka SQL.
W zapytaniach SQL można używać funkcji zdefiniowanych przez użytkownika (UDF) w języku Python, lecz przed wywołaniem ich w plikach źródłowych SQL należy je zdefiniować w plikach Pythona. Zobacz Funkcje skalarne zdefiniowane przez użytkownika — Python.
Instrukcje SQL
Użyj tych instrukcji, aby pracować z potokami w języku SQL.
- AUTO CDC INTO
- Tworzenie przepływu
- CREATE MATERIALIZED VIEW
- CREATE STREAMING TABLE
- UTWÓRZ WIDOK TYMCZASOWY
- CREATE VIEW
Można również użyć poniższych instrukcji do pracy z potokami, ale muszą być uruchamiane z usługi Databricks SQL, a nie z poziomu potoku. Zobacz Wprowadzenie do magazynowania danych przy użyciu języka SQL usługi Databricks i Użyj ALTER z zestawami danych potoków.