Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Potoki deklaratywne Lakeflow Spark (SDP) to framework do tworzenia potoków danych wsadowych i strumieniowych w językach SQL i Python. Lakeflow SDP rozszerza i współpracuje z potokami deklaratywnymi platformy Apache Spark, działając na platformie Databricks Runtime zoptymalizowanej pod kątem wydajności. Typowe przypadki użycia potoków obejmują pozyskiwanie danych ze źródeł, takich jak magazyn w chmurze (np. Amazon S3, Azure ADLS Gen2 i Google Cloud Storage) oraz magistrale komunikatów (takie jak Apache Kafka, Amazon Kinesis, Google Pub/Sub, Azure EventHub i Apache Pulsar) oraz transformacje batchowe i strumieniowe.
Uwaga / Notatka
Potoki Deklaratywne Lakeflow Spark wymagają planu Premium. Aby uzyskać więcej informacji, skontaktuj się z zespołem ds. kont usługi Databricks.
Ta sekcja zawiera szczegółowe informacje o korzystaniu z potoków. Poniższe tematy pomogą Ci rozpocząć pracę.
| Temat | Description |
|---|---|
| Pojęcia dotyczące deklaratywnych potoków Lakeflow Spark | Poznaj ogólne pojęcia dotyczące protokołu SDP, w tym potoki, przepływy, tabele przesyłania strumieniowego i zmaterializowane widoki. |
| Samouczki | Postępuj zgodnie z samouczkami, aby uzyskać praktyczne doświadczenie w korzystaniu z potoków. |
| Opracowywanie pipeline'ów | Dowiedz się, jak opracowywać i testować potoki, które tworzą przepływy do pobierania i przekształcania danych. |
| Konfigurowanie potoków | Dowiedz się, jak konfigurować i planować pipeline'y. |
| Monitorowanie potoków | Dowiedz się, jak monitorować rury i rozwiązywać problemy z zapytaniami w rurach. |
| Deweloperzy | Dowiedz się, jak używać języków Python i SQL podczas tworzenia potoków. |
| Pipeline'y w usłudze Databricks SQL | Dowiedz się, jak korzystać z tabel strumieniowych i zmaterializowanych widoków w Databricks SQL. |