Condividi tramite


Pipeline dichiarative di Lakeflow

Lakeflow Declarative Pipelines è un framework per la creazione di pipeline di dati batch e di streaming in SQL e Python. I casi d'uso comuni per le pipeline dichiarative di Lakeflow includono l'inserimento di dati da origini come l'archiviazione cloud (ad esempio Amazon S3, Azure ADLS Gen2 e Google Cloud Storage) e gli autobus di messaggi (ad esempio Apache Kafka, Amazon Snapshots, Google Pub/Sub, Azure EventHub e Apache Pulsar) e trasformazioni incrementali di batch e streaming.

Nota

Le pipeline dichiarative di Lakeflow richiedono il piano Premium. Contatta il tuo team dell'account Databricks per ulteriori informazioni.

In questa sezione vengono fornite informazioni dettagliate sull'uso delle pipeline dichiarative di Lakeflow. Gli argomenti seguenti consentono di iniziare.

Argomento Descrizione
Concetti relativi alle pipeline dichiarative di Lakeflow Scopri i concetti di alto livello delle pipeline dichiarative di Lakeflow, tra cui pipeline, flussi, tabelle di streaming e viste materializzate.
Esercitazioni Segui le esercitazioni per fornire un'esperienza pratica con l'uso delle pipeline dichiarative di Lakeflow.
Sviluppare flussi Informazioni su come sviluppare e testare pipeline che creano flussi per l'inserimento e la trasformazione dei dati.
Configurare le pipeline Informazioni su come pianificare e configurare le pipeline.
Monitoraggio delle pipeline Scopri come monitorare i pipeline e risolvere i problemi relativi alle query dei pipeline.
Gli sviluppatori Informazioni su come usare Python e SQL per lo sviluppo di pipeline dichiarative di Lakeflow.
Pipeline dichiarative di Lakeflow in Databricks SQL Informazioni sull'uso delle tabelle di streaming di Lakeflow Declarative Pipelines e delle viste materializzate in Databricks SQL.

Altre informazioni