次の方法で共有


パイプラインの制限事項

パイプラインの開発時に知っておくべき重要な Lakeflow Spark 宣言型パイプラインの制限事項を次に示します。

  • Azure Databricks ワークスペースは、200 件の同時パイプライン更新に制限されています。 1 つのパイプラインに含めることができるデータセットの数は、パイプラインの構成とワークロードの複雑さによって決まります。
  • パイプライン データセットは 1 回だけ定義できます。 このため、すべてのパイプラインに対して、単一の操作のみを対象とすることができます。 例外は、追加フロー処理を含むストリーミング テーブルです。これにより、複数のストリーミング ソースからストリーミング テーブルに書き込むことができます。 複数のフローを使用して 1 つのターゲットに書き込む方法を参照してください。
  • ID 列には、次の制限があります。 Delta テーブルの ID 列の詳細については、「 Delta Lake での ID 列の使用」を参照してください。
    • ID 列は、 AUTO CDC 処理の対象となるテーブルではサポートされていません。
    • 具体化されたビューの更新中に ID 列が再計算される場合があります。 このため、Databricks では、ストリーミング テーブルでのみパイプラインで ID 列を使用することをお勧めします。
  • Databricks SQL によって作成されたものも含め、パイプラインから発行された具体化されたビューとストリーミング テーブルには、Azure Databricks クライアントとアプリケーションのみがアクセスできます。 ただし、具体化されたビューとストリーミング テーブルに外部からアクセスできるようにするには、 sink API を使用して、外部 Delta インスタンス内のテーブルに書き込むことができます。 「Lakeflow Spark 宣言パイプラインのシンク」を参照してください。
  • Unity カタログ パイプラインの実行とクエリに必要な Databricks コンピューティングには制限があります。 Unity カタログに発行するパイプラインの 要件 を参照してください。
  • Delta Lake タイム トラベル クエリはストリーミング テーブルでのみサポートされ、具体化されたビューではサポート されません「Delta Lake テーブル履歴の操作」を参照してください。
  • 具体化されたビューとストリーミング テーブルで Iceberg 読み取りを有効にすることはできません。
  • pivot() 関数はサポートされません。 Spark での pivot 操作では、出力スキーマを計算するために、入力データを積極的に読み込む必要があります。 この機能は、パイプラインではサポートされていません。