次の方法で共有


モデルカタログを通じてモデルを使用するためのデータ、プライバシー、セキュリティ

この記事では、モデル カタログからモデルをデプロイするときに、提供されたデータが処理、使用、保存される方法について詳しく説明します。 また、Azure サービスによるデータ処理を管理する Microsoft 製品とサービスのデータ保護補遺も参照してください。

Azure Machine Learning にデプロイされたモデルに対して処理されるのはどのようなデータですか?

Azure Machine Learning にモデルをデプロイすると、サービスを提供するために次の種類のデータが処理されます。

  • プロンプトと生成されたコンテンツ。 プロンプトはユーザーによって送信され、コンテンツ (出力) はモデルでサポートされている操作を介してモデルによって生成されます。 プロンプトには、検索拡張生成 (RAG)、メタプロンプト、またはアプリケーションに含まれるその他の機能によって追加されたコンテンツが含まれる場合があります。

  • アップロードされたデータ。 微調整をサポートするモデルの場合、顧客は、微調整で使用するために Azure Machine Learning データストアにデータをアップロードできます。

マネージド コンピューティングを使用して推論出力を生成する

マネージド コンピューティングにモデルをデプロイすると、モデルの重みが専用の Virtual Machines にデプロイされ、リアルタイム推論用の REST API が公開されます。 モデルカタログからマネージド コンピューティングへのモデルのデプロイについての詳細情報。 これらのマネージド コンピューティングのインフラストラクチャを管理すると、Azure のデータ、プライバシー、セキュリティへのコミットメントが適用されます。 Azure Machine Learning に適用できる Azure コンプライアンス認証の詳細についてはこちらを参照してください。

"Azure AI によってキュレーションされた" モデルのコンテナーでは、データを流出させる可能性のある脆弱性がスキャンされますが、モデル カタログで利用できるすべてのモデルがスキャンされているわけではありません。 データ流出のリスクを削減するために、仮想ネットワークを使用してデプロイを保護できます。 詳細については、こちらのリンクを参照してください。 Azure Policy を使用して、ユーザーがデプロイできるモデルを規制することもできます。

プラットフォーム サービスのライフ サイクルを示す図。

サーバーレス API を使用して推論出力を生成する (サービスとしてのモデル)

推論用のサーバーレス API としてモデルカタログ (ベースまたは微調整済み) からモデルをデプロイすると、API がプロビジョニングされ、Azure Machine Learning service によってホストおよび管理されているモデルにアクセスできるようになります。 サービスとしてのモデルの詳細についてはこちらを参照してください。 モデルに対して提供されるモデルの詳細で説明されているように、モデルは、入力プロンプトを処理し、モデルの機能に基づいて出力を生成します。 モデルはモデル プロバイダーによって提供され、モデルの使用 (およびモデルとその出力に対するモデル プロバイダーの責任) は、モデルに付属するライセンス条項に従います、ホスティング インフラストラクチャと API エンドポイントは Microsoft が提供および管理します。 サービスとしてのモデルでホストされるモデルは、Azure のデータ、プライバシー、セキュリティのコミットメントの対象です。 Azure Machine Learning に適用できる Azure コンプライアンス認証の詳細については、こちらをご覧ください。

重要

現在、この機能はパブリック プレビュー段階にあります。 このプレビュー バージョンはサービス レベル アグリーメントなしで提供されており、運用環境のワークロードに使用することは推奨されません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。

詳しくは、Microsoft Azure プレビューの追加使用条件に関するページをご覧ください。

Microsoft は、従量課金制推論用にデプロイされたモデル (MaaS) により送信および生成されるプロンプトと出力のデータ プロセッサとして機能します。 Microsoft は、これらのプロンプトと出力をモデル プロバイダーと共有しません。また、Microsoft は、Microsoft、モデル プロバイダー、またはサード パーティのモデルをトレーニングまたは改善するために、これらのプロンプトと出力を使用しません。 モデルはステートレスであり、プロンプトや出力はモデルに保存されません。 コンテンツ フィルタリング (プレビュー) が有効になっている場合、Azure AI Content Safety サービスによって有害なコンテンツの特定のカテゴリについてプロンプトと出力がリアルタイムでスクリーニングされます。Azure AI Content Safety でデータが処理されるしくみの詳細については、こちらをご覧ください。 プロンプトと出力は、デプロイ時に指定された地域内で処理されますが、運用上の目的 (パフォーマンスと容量管理を含む) のために、地域内のリージョン間で処理される場合があります。

モデル パブリッシャー サービス サイクルを示す図。

サービスとしてのモデルのデプロイ プロセス中に説明したように、Microsoft は、顧客の連絡先情報とトランザクションの詳細 (オファリングに関連付けられている使用量を含む) をモデル発行元と共有して、モデルに関して顧客に連絡できるようにします。 モデルパブリッシャーが利用できる情報の詳細については、こちらのリンクを参照してください

サーバーレス API を使用してモデルを微調整する (サービスとしてのモデル)

サーバーレス API デプロイで使用可能なモデルで微調整がサポートされている場合は、Azure Machine Learning データストアにデータをアップロード (または既にデータを指定) して、モデルを微調整できます。 その後、微調整されたモデル用のサーバーレス API を作成できます。 微調整されたモデルはダウンロードできませんが、微調整されたモデルでは以下が可能です。

  • ご自分の使用のために排他的に利用可能です。

  • 保存時に二重に暗号化できます (既定では、Microsoft の AES-256 暗号化と、必要に応じてカスタマー マネージド キーを使用)。

  • いつでも削除できます。

微調整のためにアップロードされたトレーニング データは、サービス内でユーザーが指示する場合を除き、Microsoft またはサード パーティのモデルのトレーニング、再トレーニング、または改善に使用されません。

ダウンロードしたモデルのデータ処理

モデル カタログからモデルをダウンロードする場合は、モデルをデプロイする場所を選択し、モデルを使用する場合のデータの処理方法について責任を負います。

次のステップ