Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Deklarativní kanály Sparku Pro Lakeflow (SDP) je architektura pro vytváření dávkových a streamovaných datových kanálů v SQL a Pythonu. Lakeflow SDP rozšiřuje a je interoperabilní s deklarativními kanály Apache Sparku a běží na modulu Databricks Runtime optimalizovaném pro výkon. Mezi běžné případy použití kanálů patří příjem dat ze zdrojů, jako je cloudové úložiště (například Amazon S3, Azure ADLS Gen2 a Google Cloud Storage) a sběrnice zpráv (například Apache Kafka, Amazon Kinesis, Google Pub/Sub, Azure EventHub a Apache Pulsar) a inkrementální dávkové a streamovací transformace.
Poznámka:
Deklarativní kanály Sparku Lakeflow vyžadují plán Premium. Další informace získáte od týmu účtu Databricks.
Tato část obsahuje podrobné informace o používání kanálů. Následující témata vám pomůžou začít.
| Téma | Description |
|---|---|
| Koncepty deklarativních kanálů Lakeflow Spark | Seznamte se s koncepty SDP vysoké úrovně, včetně kanálů, toků, streamovacích tabulek a materializovaných zobrazení. |
| Cvičení | V kurzech získáte praktické zkušenosti s používáním kanálů. |
| Vývoj kanálů | Naučte se vyvíjet a testovat kanály, které vytvářejí toky pro ingestování a transformaci dat. |
| Konfigurace potrubí | Naučte se plánovat a konfigurovat kanály. |
| Monitorování kanálů | Zjistěte, jak monitorovat pipeliny a řešit potíže s dotazy na pipeliny. |
| Vývojáři | Naučte se používat Python a SQL při vývoji datových toků. |
| Pipelines v Databricks SQL | Seznamte se s používáním streamovaných tabulek a materializovaných zobrazení v Databricks SQL. |