次の方法で共有


append_flow

@dp.append_flowデコレーターは、パイプライン テーブルの追加フローまたはバックフィルを作成します。 この関数は、Apache Spark ストリーミング DataFrame を返す必要があります。 Lakeflow Spark 宣言パイプライン フローを使用したデータの増分読み込みと処理に関するページを参照してください。

追加フローは、ストリーミング テーブルまたはシンクをターゲットにすることができます。

構文

from pyspark import pipelines as dp

dp.create_streaming_table("<target-table-name>") # Required only if the target table doesn't exist.

@dp.append_flow(
  target = "<target-table-name>",
  name = "<flow-name>", # optional, defaults to function name
  once = <bool>, # optional, defaults to false
  spark_conf = {"<key>" : "<value", "<key" : "<value>"}, # optional
  comment = "<comment>") # optional
def <function-name>():
  return (<streaming-query>) #

パラメーター

パラメーター タイプ Description
関数 function 必須。 ユーザー定義クエリから Apache Spark ストリーミング DataFrame を返す関数。
target str 必須。 追加フローのターゲットであるテーブルまたはシンクの名前。
name str フロー名。 指定しない場合は、既定で関数名が使用されます。
once bool 必要に応じて、バックフィルなどの 1 回限りのフローとしてフローを定義します。 once=Trueを使用すると、次の 2 つの方法でフローが変更されます。
  • 戻り値。 streaming-query。 この場合は、ストリーミング DataFrame ではなく、バッチ DataFrame である必要があります。
  • フローは既定で 1 回実行されます。 パイプラインが完全な更新で更新された場合、 ONCE フローが再度実行され、データが再作成されます。
comment str フローの説明。
spark_conf dict このクエリを実行するための Spark 構成の一覧

例示

from pyspark import pipelines as dp

# Create a sink for an external Delta table
dp.create_sink("my_sink", "delta", {"path": "/tmp/delta_sink"})

# Add an append flow to an external Delta table
@dp.append_flow(name = "flow", target = "my_sink")
def flowFunc():
  return <streaming-query>

# Add a backfill
@dp.append_flow(name = "backfill", target = "my_sink", once = True)
def backfillFlowFunc():
    return (
      spark.read
      .format("json")
      .load("/path/to/backfill/")
    )

# Create a Kafka sink
dp.create_sink(
  "my_kafka_sink",
  "kafka",
  {
    "kafka.bootstrap.servers": "host:port",
    "topic": "my_topic"
  }
)

# Add an append flow to a Kafka sink
@dp.append_flow(name = "flow", target = "my_kafka_sink")
def myFlow():
  return read_stream("xxx").select(F.to_json(F.struct("*")).alias("value"))