変換アプリケーションのソースとして SQL データベースを使用する

適用対象:✅Microsoft Fabric 内の SQL データベース

この記事では、Microsoft Fabric の SQL データベースを、同じデータへのトランザクションアクセスと分析アクセスの両方を必要とするトランスリティカル アプリ (アプリ) の運用バックボーンとして使用する方法について説明します。

目標は、管理されたセキュリティで保護された Microsoft Fabric プラットフォーム内の 1 つのデータベースで、トランザクション ワークロード、運用 API、および即時分析データを有効にすることです。

SQL 分析エンドポイント

Fabric で SQL データベースを作成すると、データはほぼリアルタイムで OneLake に自動的にレプリケートされ、 SQL 分析エンドポイントを介して T-SQL 経由でアクセスできる Delta テーブルにデータの読み取り専用コピーが作成されます。 このアーキテクチャは、トランザクション システムによって生成されたデータが、処理や複雑な ETL パイプラインなしで分析クエリに使用されることを意味します。 SQL 分析エンドポイントを使用すると、トランザクション ワークロードに影響を与えることなく、ほぼリアルタイムでデータを分析できます。 このデータは、Power BI レポート、機械学習モデル、または Fabric 内の他の分析に使用できます。 SQL 分析エンドポイントは、データへの分析アクセスを必要とする外部アプリケーションからもアクセスできます。

たとえば、次のようになります。

  • 医療: 医療メトリックを監視して、医療専門家にリアルタイムの分析情報を提供します。
  • 金融: 市場データを分析して、リアルタイムで取引戦略を最適化します。
  • 小売: 顧客の行動を分析して、パーソナライズされたショッピング エクスペリエンスを提供します。
  • 製造: 生産プロセスを監視して、製品の品質を向上させます。

トランザクショナル解析タスクフロー

Power BI を使用してデータを分析する場合、レコードの更新、注釈の追加、データに基づく別のシステムでのアクションのトリガーなど、データに対してアクションを実行する必要がある場合があります。 Fabric で トランスリーティカル タスク フロー を使用すれば、これらのタスクを簡単に実行できます。

ユーザー データ関数を使用すると、次のようなシナリオが可能になります。

  • データの追加: データベース内のテーブルにデータのレコードを追加し、レポートに反映されていることを確認します。 たとえば、新しい顧客レコードを追加します。
  • データの編集: データベース内のテーブル内のデータの既存のレコードを編集し、カスタム コーディングなしでレポートに反映されるようにします。 たとえば、状態フィールドまたは注釈を更新します。
  • データの削除: データベース内のテーブルからデータの既存のレコードを削除し、レポートから削除されたデータを確認します。 たとえば、不要になった顧客レコードを削除します。
  • 外部 API を呼び出します。 ネットワーク要求を介してアクセスできる API 要求を作成します。 たとえば、基になるデータまたはエンド ユーザーの入力を更新したり、別のシステムでアクションを実行したりするパブリック API の REST エンドポイントに対して要求を行います。

データ ライトバック シナリオでは、ユーザー データ関数は、Fabric、Warehouse、Lakehouses の SQL データベースの接続管理を提供します。 トランスリティカル タスクフローのしくみを示します。

  • Fabric のユーザー データ関数は 、基になる Fabric データ ソースで関数を呼び出します。 ユーザー データ関数は、パラメーターとして渡された現在のレポート コンテキスト (フィルター、スライサー、および選択) を操作します。
  • SQL 分析エンドポイントは OneLake でほぼリアルタイムのレプリカを保持するため、タスク フローによって書き込まれた更新プログラムは、追加の ETL なしですぐに分析および Power BI ビジュアルに使用できます。
  • ユーザー データ関数を介してキャプチャされたアクションは、SQL データベースでの最終的な永続化の前に、AI 支援処理 (分類やエンリッチメントなど) のために ELT パイプラインの Fabric Notebook にルーティングできます。

変換タスク フローの構築には、次の主なタスクが含まれます。

  1. Fabric データ ソースにデータを格納する。
  2. アクションを処理するユーザー データ関数を開発する。
  3. このデータを使用する Power BI セマンティック モデルを作成する。
  4. ユーザーの入力をキャプチャして関数を呼び出す対話型要素を含む Power BI レポートを構築する。