次の方法で共有


Dataflow Gen1 から Dataflow Gen2 の移行

Dataflow Gen2 は、新しい世代のデータフローです。 新世代のデータフローは Power BI データフロー (Gen1) と並行して存在し、新機能と改善されたエクスペリエンスをもたらします。 次のセクションでは、Dataflow Gen1 と Dataflow Gen2 の比較について説明します。

機能の概要

機能 Dataflow Gen2 Dataflow Gen1
Power Query を使用してデータフローを作成する
作成フローの短縮
自動保存とバックグラウンド発行
データの保存先
監視と更新履歴の改善
データ パイプラインとの統合
ハイスケール コンピューティング
Dataflow コネクタを使用してデータを取得する
Dataflow コネクタを使用した直接クエリ
増分更新
AI 分析情報サポート

作成エクスペリエンスの短縮

Dataflow Gen2 を使用すると、家に帰ってきたような気分になります。 Power BI データフローでは、使い慣れた完全な Power Query エクスペリエンスが維持されています。 エクスペリエンスに入ると、データフローにデータを取り込むための手順が段階的に案内されます。 また、データフローの作成に必要な手順の数を減らすために作成エクスペリエンスを短縮し、エクスペリエンスをさらに向上させるためにいくつかの新機能を追加しました。

Screenshot of the overall authoring experience in dataflows.

新しいデータフローの保存エクスペリエンス

Dataflow Gen2 では、データフローの保存のしくみを変更しました。 データフローに加えられた変更はすべてクラウドに自動保存されます。 したがって、いつでも作成エクスペリエンスを終了し、後で中断したところから続行できます。 データフローの作成が完了したら、変更を公開すると、それらの変更はデータフローが更新されるときに使用されます。 さらに、データフローを公開すると、変更が保存され、バックグラウンドで実行する必要がある検証が実行されます。 この機能を使用すると、検証が完了するのを待たずにデータフローを保存できます。

新しい保存エクスペリエンスの詳細については、「データフローの下書きを保存する」を参照してください。

データの保存先

Dataflow Gen1 と同様に、Dataflow Gen2 では、Dataflow コネクタを使用してアクセスできるデータフローの内部/ステージング ストレージにデータを変換できます。 Dataflow Gen2 では、データのデータ変換先を指定することもできます。 この機能を使用すると、ETL ロジックと宛先ストレージを分離できるようになります。 この機能はさまざまな面でメリットがあります。 たとえば、データフローを使用してデータをレイクハウスに読み込み、ノートブックを使用してデータを分析できるようになりました。 または、データフローを使用してデータを Azure SQL データベースに読み込み、データ パイプラインを使用してデータをデータ ウェアハウスに読み込むこともできます。

Dataflow Gen2 では、次の宛先のサポートが追加され、さらに多くの宛先が近日中に提供される予定です。

  • Fabric Lakehouse
  • Azure Data Explorer (Kusto)
  • Azure Synapse Analytics (SQL DW)
  • Azure SQL データベース

Note

データを Fabric Warehouse に読み込むには、SQL 接続文字列を取得することで Azure Synapse Analytics (SQL DW) コネクタを使用できます。 詳細: Microsoft Fabric でのデータ ウェアハウスへの接続

Screenshot with the supported data destinations displayed.

新しい更新履歴と監視

Dataflow Gen2 では、データフローの更新を監視する新しい方法が導入されています。 監視ハブのサポートを統合し、更新履歴エクスペリエンスを大幅にアップグレードします。

Screenshot showing the details of a refresh status.

データ パイプラインとの統合

データ パイプラインを使用すると、タスクを一緒に実行するアクティビティをグループ化できます。 アクティビティは、実行できる作業単位です。 たとえば、アクティビティでは、ある場所から別の場所にデータをコピーしたり、SQL クエリを実行したり、ストアド プロシージャを実行したり、Python ノートブックを実行したりできます。

パイプラインには、依存関係によって接続された 1 つ以上のアクティビティを含めることができます。 たとえば、パイプラインを使用して Azure BLOB からデータを取り込んでクリーンアップし、Dataflow Gen2 を開始してログ データを分析できます。 パイプラインを使用して Azure BLOB から Azure SQL データベースにデータをコピーし、データベース上でストアド プロシージャを実行することもできます。

Screenshot showing the integration with data pipelines.

下書きとして保存

Dataflow Gen2 では、変更を保存するために公開する必要がなくなるため、安心したエクスペリエンスが導入されます。 下書きとして保存機能を使用すると、変更を加えるたびにデータフローの下書き バージョンが保存されます。 インターネット接続が失われましたか? 誤ってブラウザーを閉じてしまいましたか? ご心配なく。あなたの背中を支えます。 データフローに戻ると、最近の変更がまだ残っており、中断したところから続行できます。 これはシームレスなエクスペリエンスであり、ユーザーからの入力は必要ありません。 これにより、変更が失われることを心配したり、変更を保存する前にすべてのクエリ エラーを修正したりする必要がなく、データフローで作業することができます。 この機能の詳細については、「データフローの下書きを保存する」を参照してください。

ハイスケール コンピューティング

Dataflow Gen1 と同様に、Dataflow Gen2 にも強化されたコンピューティング エンジンが搭載されており、参照されたクエリの変換とデータ取得シナリオの両方のパフォーマンスが向上します。 これを実現するために、Dataflow Gen2 はワークスペース内に Lakehouse アイテムと Warehouse アイテムの両方を作成し、それらを使用してデータの保存とアクセスを行い、すべてのデータフローのパフォーマンスを向上させます。

Dataflow Gen1 と Gen2 のライセンス

Dataflow Gen2 は、Power BI データフロー (Gen1) と並行して存在する新世代のデータフローであり、新機能と改善されたエクスペリエンスをもたらします。 これには、Fabric の容量または Fabric 試用版の容量が必要です。 データフローに対するライセンス付与のしくみをより深く理解するには、次の記事を参照してください: 「Microsoft Fabric の概念とライセンス

Dataflow Gen1 のクエリを再利用して Dataflow Gen2 を試す

おそらく、多くの Dataflow Gen1 クエリがあり、それらを Dataflow Gen2 でどのように試せるか疑問に思っているでしょう。 Dataflow Gen1 を Dataflow Gen2 として再作成するためのオプションがいくつかあります。

  • Dataflow Gen1 クエリをエクスポートし、Dataflow Gen2 にインポートする

    Dataflow Gen1 と Gen2 の両方の作成エクスペリエンスでクエリをエクスポートし、PQT ファイルに保存して、Dataflow Gen2 にインポートできるようになりました。 詳細については、「エクスポート テンプレート機能を使用する」を参照してください。

  • Power Query でコピーして貼り付ける

    Power BI または Power Apps にデータフローがある場合は、クエリをコピーして、Dataflow Gen2 のエディターに貼り付けることができます。 この機能を使用すると、クエリを書き直すことなくデータフローを Gen2 に移行できます。 詳細については、「既存の Dataflow Gen1 クエリをコピーして貼り付ける」を参照してください。