Important
英語以外の翻訳は便宜上のみ提供されています。 詳細なバージョンについては、このドキュメントのEN-USバージョンを参照してください。
この記事では、Microsoft Foundry の Azure Direct Models に提供されるデータの処理、使用、格納方法について詳しく説明します。 Azure Direct Model とは、Foundry で "Azure Direct Model" として指定およびデプロイされた AI モデルを意味し、Azure OpenAI モデルが含まれます。 Azure Direct Models では、データを格納して処理してサービスを提供し、該当する製品の使用条件に違反する使用を監視します。 また、Azure Direct Models によるデータ処理を管理する Microsoft 製品とサービスのデータ保護補遺も参照してください。 Foundry は Azure サービスです。該当する Azure コンプライアンス オファリングの 詳細を確認 してください。
Important
プロンプト (入力) と入力候補 (出力)、埋め込み、トレーニング データ:
- 他のお客様にはご利用できません。
- は、OpenAI または他の Azure Direct Model プロバイダーでは使用できません。
- は、モデルまたはサービスを改善するために Azure Direct Model プロバイダーによって使用されません。
- は、お客様の許可または指示なしに生成 AI 基盤モデルをトレーニングするために使用されません。
- お客様のデータ、プロンプト、入力候補は、お客様の明示的な許可または指示なしに、Microsoft またはサード パーティの製品またはサービスを改善するために使用されません。
微調整された Azure Direct モデルは、専用でご利用いただけます。
Foundry は Azure サービスです。Microsoft は Microsoft の Azure 環境で Azure Direct Models をホストし、Azure Direct Models は、OpenAI (ChatGPT や OpenAI API など) など、Azure Direct Model プロバイダーが運営するサービスとは対話しません。
Foundry では、Azure Direct モデルを提供するためにどのようなデータが処理されますか?
Foundry は、Azure Direct モデルを提供するために次の種類のデータを処理します。
- プロンプトと生成されたコンテンツ。 ユーザーがプロンプトを送信すると、完了、チャットの完了、画像、埋め込み操作を介して、サービスによってコンテンツが生成されます。
- アップロードされたデータ。 Files API またはベクター ストアを使用して、特定のサービス機能 ( 微調整、 アシスタント API、 バッチ処理など) で使用するために、独自のデータをアップロードできます。
- ステートフル エンティティのデータ。 Responses API、Assistants API のスレッド機能、保存された入力候補など、Azure Direct Models とエージェントの特定のオプション機能を使用すると、サービスは、機能の構成方法に従って、メッセージ履歴やその他のコンテンツを保持するデータ ストアを作成します。
- プロンプトに含まれる、またはプロンプトを介して含まれる拡張データ。 ステートフル エンティティに関連付けられているデータを使用すると、サービスは構成されたデータ ストアから関連するデータを取得し、プロンプトを拡張して、データを基盤とする世代を生成します。 プロンプトは、URL など、プロンプト自体に含まれるソースから取得されたデータで拡張することもできます。
- トレーニングと検証データ。 モデルを微調整するために、プロンプトと入力候補のペアで構成される独自のトレーニング データを提供できます。
Foundry はデータをどのように処理して Azure Direct モデルを提供しますか?
データの処理方法を次の図に示します。 この図では、いくつかの種類の処理について説明します。
- Foundry が、Azure Direct Models を使用した推論を介してプロンプトを処理してコンテンツを生成する方法 (指定されたデータ ソースからの追加データが、データ、アシスタント、またはバッチ処理で Azure OpenAI を使用してプロンプトに追加された場合を含む)。
- アシスタント機能がメッセージ、スレッド、および実行に関連してデータを格納する方法。
- Responses API 機能がメッセージ履歴を保持するためにデータを格納する方法。
- Batch 機能でアップロードされたデータを処理する方法。
- Foundry がアップロードしたデータを使用して微調整 (カスタム) モデルを作成する方法。
- Foundry および Microsoft の担当者が、有害なコンテンツや、行動規範またはその他の適用可能な製品条件に違反する方法でサービスの使用を示唆するパターンについて、プロンプトと入力候補 (テキストと画像) を分析する方法。
上の図に示すように、管理対象のお客様は不正使用監視の変更を申請することができます。
推論を通じて補完、画像、または埋め込みを生成する
Foundry リソースにデプロイされた Azure Direct Models (基本または微調整済み) は、入力プロンプトを処理し、テキスト、画像、または埋め込みを使用して応答を生成します。 プロンプトと入力候補は、有害なコンテンツ タイプについてリアルタイムで評価され、構成されたしきい値に基づいてコンテンツ生成がフィルター処理されます。 詳細については、 Guardrails (以前のコンテンツ フィルター) の概要を参照してください。
プロンプトと応答は、お客様が指定した 地域 内で処理されますが (グローバル展開または DataZone デプロイの種類を使用している場合を除く)、運用上の目的 (パフォーマンスと容量管理を含む) のために地域内のリージョン間で処理される場合があります。 Global または DataZone デプロイの種類を使用する場合の処理の場所については、以下を参照してください。
モデルはステートレスです。プロンプトや入力候補はモデルに格納されません。 さらに、プロンプトと生成結果は、基本モデルのトレーニング、再トレーニング、または改善には使用されません。
"グローバル" デプロイと "データ ゾーン" デプロイの種類の処理の場所を理解する
Foundry には、標準のデプロイに加えて、"グローバル" と "DataZone" というラベルの付いた Azure Direct Model デプロイ オプションが用意されています。 "グローバル" というラベルの 付いたデプロイの種類 については、関連する Azure Direct Model がデプロイされている任意の地域でプロンプトと応答を処理できます ( モデルのリージョンの可用性の詳細を参照)。 "DataZone" というラベルが付いたデプロイの種類の場合、プロンプトと応答は、Microsoft が定義している、指定されたデータ ゾーン内の任意の地域で処理される可能性があります。 米国にある Foundry リソースに DataZone デプロイを作成した場合、プロンプトと応答は米国内の任意の場所で処理される可能性があります。 欧州連合加盟国にある Foundry リソースに DataZone デプロイを作成する場合、プロンプトと応答は、その他の欧州連合加盟国で処理される可能性があります。 グローバルデプロイと DataZone デプロイの両方の種類で、アップロードされたデータや、グローバルデプロイと DataZone デプロイ用に作成された不正使用監視データ ストアを含め、保存時に保存されるすべてのデータは、顧客が指定した地域に格納されます。 お客様が Azure Direct Models でグローバル デプロイの種類または DataZone デプロイの種類を使用する場合、処理の場所のみが影響を受けます。Azure データ処理とコンプライアンス コミットメントは引き続き適用されます。
プロンプトを拡張して、生成された結果をあなたのデータに基づかせる
Azure OpenAI の "データに関する" 機能を使用すると、データ ソースを接続して、データを用いて生成された結果を裏付けることができます。 データは、指定したデータ ソースと場所に保存されたままです。Azure OpenAI では、重複するデータ ストアは作成されません。 ユーザー プロンプトを受信すると、サービスは接続されたデータ ソースから関連するデータを取得し、プロンプトを拡張します。 モデルは、この拡張プロンプトを処理し、生成されたコンテンツが上記のように返されます。 On Your Data 機能を安全に使用する方法について説明します。
Azure Direct Models 機能のデータ ストレージ
Azure Direct Models の一部の機能では、サービスにデータが格納されます。 このデータは、Files API またはベクター ストアを使用して顧客によってアップロードされるか、Responses API、Assistants API のスレッド機能、格納された入力候補などの特定のステートフル エンティティに関連して自動的に格納されます。 このような機能のために格納されるデータ:
- お客様の Azure テナント内の Foundry リソースに、リソースと同じ 地理的な場所 に保存されます。
- 既定では、Microsoft の AES-256 暗号化を使用して保存時に常に暗号化されます。カスタマー マネージド キーを使用するオプションがあります (特定のプレビュー機能ではカスタマー マネージド キーがサポートされない場合があります)。 Microsoft マネージド キーは常に、保存されているすべてのデータのベースライン暗号化を確保するために使用されます。
- お客様がいつでも削除できます。
Note
プレビュー段階のモデルまたは機能では、上記の条件がすべてサポートされていない場合があります。
保存されたデータは、次のサービス機能と共に使用できます。
- カスタマイズされた (微調整された) モデルを作成する。 詳細については、 微調整のしくみをご覧ください。 微調整されたモデルは、微調整されたモデルの作成に使用されたデータを持つお客様のみが利用でき、保存時に暗号化され (推論のためにデプロイされていない場合)、いつでも顧客が削除できます。 微調整のためにアップロードされたトレーニング データは、ユーザーの許可や指示なしに生成 AI 基盤モデルをトレーニングするために使用されません。
- バッチ処理。 バッチ処理のしくみについて詳しくは、こちらをご覧ください。 バッチ処理はグローバル展開の種類です。保存時に格納されたデータは、処理容量が使用可能になるまで、指定された Azure 地域に残ります。処理は、関連する Azure Direct Model がデプロイされている任意の地域で発生する可能性があります ( モデルのリージョンの可用性の詳細を参照してください)。
- 応答 API。 Responses API のしくみの詳細について説明します。 この API は、メッセージ履歴と、メッセージ履歴に関連するその他のコンテンツを格納します。 これは、複数ターンの会話とワークフローに必要です。
- Assistants API (プレビュー)。 Assistants API のしくみの詳細について説明します。 スレッド、ストア メッセージ履歴、その他のコンテンツなど、アシスタントの一部の機能。
- 保存済みの完了項目 (プレビュー)。 保存された応答は、顧客がデプロイした Azure OpenAI モデル(GPT-4o など)からの入力と出力のペアを、チャット応答 API を介して格納し、Foundry ポータルに表示します。 これにより、お客様は実稼働データを使用してデータセットを構築できます。これにより、モデルの評価または微調整に使用できます (該当する製品条項で許可されています)。
不正使用の防止
悪用や有害な使用のリスクを軽減するために、Azure Direct Models には不正使用の監視機能が含まれています。 不正使用の監視の詳細については、 不正使用の監視に関するページを参照してください。
微調整されたモデルの安全性評価では、 Azure のリスクと安全性のメトリックを使用して、有害な可能性のある応答について微調整されたモデルを評価します。 サービスによりログに記録されるのは、結果として得られた評価 (展開の可否) のみです。
Azure Direct Models の不正使用監視システムは、繰り返し発生するコンテンツおよび/または行動を検出し、サービスの使用が行動規範やその他の適用可能な製品条件に違反する可能性がある場合に、その問題を軽減するように設計されています。 ここで説明するように、システムはアルゴリズムとヒューリスティックを使用して、潜在的な不正使用のインジケーターを検出します。 これらのインジケーターが検出されると、顧客のプロンプトと完了のサンプルがレビュー用に選択される場合があります。 レビューは、既定では LLM などの AI モデルを含む自動化された手段によって行われ、必要に応じて人間のレビュー担当者による追加のレビューが行われます。 自動レビューと人間によるレビューに関する詳細情報は、 不正使用の監視で確認できます。
自動レビューでは、顧客のプロンプトと入力候補はシステムによって保存されず、AI モデルやその他のシステムのトレーニングに使用されません。 ヒューマン レビューのためにプロンプトと入力候補が格納される不正使用監視データ ストアは、顧客リソースによって論理的に分離されます (各要求には、顧客の Foundry リソースのリソース ID が含まれます)。 Azure Direct Model を使用できる各地域に個別のデータ ストアがあり、顧客のプロンプトと生成されたコンテンツは、顧客の Foundry リソースがデプロイされている Azure 地域の Azure Direct Models サービス境界内に格納されます。 悪用の可能性を評価する人間のレビュー担当者は、そのデータが既に不正使用監視システムによってフラグ付けされている場合、またはプロンプトと入力候補が悪用される可能性のある使用パターンの一部である場合にのみ、プロンプトと入力候補のデータにアクセスできます。 人間のレビュー担当者は、要求 ID、Secure Access Workstations (SAW)、Just-In-Time (JIT) 要求承認を使用してポイントごとのクエリ経由でデータにアクセスする承認された Microsoft 従業員です。 欧州経済地域にデプロイされた Azure Direct Models の場合、承認された Microsoft 従業員は欧州経済地域に配置されます。
お客様が変更された不正使用監視の承認を受けている場合 ( 不正使用の監視の詳細を参照)、上記のデータ ストレージと人間によるレビュー プロセスは実行されません。 ただし、必要に応じて、提供または生成された時点でプロンプトと完了をレビューする AI モデルを含むアルゴリズムを利用して、自動レビューを実行することもできます。 このような自動レビューで、お客様のサブスクリプションで重大または定期的な不正使用を示す可能性のあるコンテンツが検出された場合、Microsoft AI サービスの責任ある使用に関する製品使用条件に記載されているように、お客様はアクセスに関する制限を受ける可能性があります。 また、ユーザーは、アクセスに関する将来の制限 (不正使用が検出されたアカウントやサブスクリプションの調整や中断など) のリスクを軽減するために、ヒューマン レビューを有効にして不正使用の監視を有効にすることに同意するように求められることがあります。
Note
プレビュー段階の Azure Direct Models を含む Azure プレビュー機能では、不正使用の監視など、さまざまなプライバシー プラクティスが採用されている場合があります。 プレビューには、 Microsoft Azure プレビューの追加使用条件に関する補足条件が適用される場合があります。
有害なコンテンツ生成の防止
Azure Direct Models には、有害なコンテンツの出力を検出して防止するように設計されたシステムが含まれています。 Guardrail (以前のコンテンツ フィルター) の詳細については、「 ガードレール」を参照してください。
ガードレールは、前述および ここで説明したように、サービスがコンテンツの生成を求めるプロンプトを処理する場合に同期的に発生します。 プロンプトや生成されたコンテンツはコンテンツ分類子モデルに格納されず、プロンプトと出力は、ユーザーの許可や指示なしに生成 AI 基盤モデルをトレーニングするために使用されません。
お客様は、不正使用監視用のデータ ストレージがオフかどうかを確認するにはどうすればよいですか?
不正使用の監視をオフにすることが承認されると、承認された Azure サブスクリプションで不正使用の監視用のデータ ストレージがオフになっていることを確認するには、次の 2 つの方法があります。
- Azure portal を使用する、または
- Azure CLI (または任意の管理 API)。
Note
"ContentLogging" 属性の値 "false" は、不正使用の監視用のデータ ストレージがオフになっている場合にのみ表示されます。 それ以外の場合、このプロパティは Azure portal または Azure CLI の出力には表示されません。
Prerequisites
- Azure へのサインイン
- Foundry リソースをホストする Azure サブスクリプションを選択します。
- Foundry リソースの [概要 ] ページに移動します。
リソースの [概要] ページに移動する
次の図に示すように、右上隅にある JSON ビュー のリンクをクリックします。
機能の一覧に "ContentLogging" という値が表示され、不正使用の監視のログ記録がオフの場合は FALSE に設定されます。
{
"name":"ContentLogging",
"value":"false"
}
Microsoft のプライバシーとセキュリティのコミットメントの詳細については、 Microsoft セキュリティ センターを参照してください。
変更ログ
| Date | Changes |
|---|---|
| 2025 年 10 月 3 日 | Azure Direct Models に拡張されたドキュメント。分離されたガードレール(以前のコンテンツフィルタ)および不正使用監視セクション。不正使用の監視と重大または定期的な不正使用に関する明確化が追加されました。 |
| 2024 年 12 月 17 日 | 新しい保存済み入力候補機能に関連するデータ処理とストレージに関する情報を追加しました。プレビュー段階の Azure OpenAI 機能では、すべてのデータ ストレージ条件がサポートされない可能性があることを明確にする言語が追加されました。バッチ処理の "プレビュー" 指定が削除されました |
| 2024 年 11 月 18 日 | 新しい "データ ゾーン" デプロイの種類のデータ処理の場所に関する情報を追加しました。不正使用の防止と有害なコンテンツの生成の一環として、プロンプトと完了の新しい AI レビューに関する情報を追加しました |
| 2024 年 9 月 4 日 | Assistants API (プレビュー)、Batch (プレビュー)、グローバル デプロイなどの新機能のデータ処理に関する情報 (およびそれに応じて既存のテキストを変更) を追加しました。 Azure データ所在地の原則に従って、データ処理の場所に関連する改訂された言語。微調整されたモデルの安全性評価のためのデータ処理に関する情報を追加しました。プロンプトと完了の使用に関連するコミットメントを明確にしました。明確さを向上させるためのマイナー リビジョン |
| 2023 年 6 月 23 日 | 新しい Azure のオン・ユア・データ機能におけるデータ処理に関する情報を追加しました。Azure OpenAI サービスの不正使用監視で利用可能になった不正使用監視に関する情報を削除しました。 概要に関するメモを追加しました。 コンテンツと図を更新し、わかりやすくするために合理化しました。 変更ログを追加しました |
こちらも参照ください
- Azure OpenAI サービス統合の行動規範
- Azure OpenAI モデルのための責任ある AI プラクティスの概要
- Azure OpenAI サービスの透明性に関するメモとユース ケース
- Azure のデータ所在地
- Azure Government での Azure OpenAI の比較
- Azure OpenAI Service への制限付きアクセス
- 不正使用の報告ポータルを使用して Azure OpenAI サービスの不正使用を報告する
- cscraireport@microsoft.com に問題を報告する