次の方法で共有


Microsoft Copilot for Security のプライバシーとデータ セキュリティ

Microsoft Copilot for Security を使用すると、顧客データとシステム生成ログがサービスの一部として格納および処理されます。

データ共有は既定で有効になっています。 グローバル管理者とセキュリティ管理者には、Copilot for Security で Copilot 所有者の役割が割り当てられます。 Copilot の所有者は、初回実行エクスペリエンス中で、また、その後いつでも、顧客データのデータ共有設定を変更できます。 役割の詳細については、「Copilot for Security の役割」をご覧ください。

この記事では、Copilot for Security の顧客データとシステム生成ログを比較し、データ共有オプションについて説明し、データが保護される方法を要約します。

顧客データとシステム生成ログ

Microsoft 製品使用条件で定義されているとおり、顧客データ とは、顧客またはその代理人から Microsoft に提供されるすべてのデータをいい、これにはすべてのテキスト、サウンド、ビデオ、イメージ ファイルおよびソフトウェアが含まれます。 顧客データには、Professional Services データまたはオンライン サービスでリソースを構成するために使用される情報 (技術設定やリソース名など) は含まれません。

Microsoft オンライン サービスは、サービスの通常の運営の一環として、"システム生成ログ" を作成します。 システム生成ログは、システムが期待通りに動作しているかどうかを Microsoft が監視できるように、長期にわたりシステム アクティビティを継続的に記録します。 "ログ" (ログのストレージと処理) は、運用上の問題、ポリシー違反、不正行為を特定、検出、対応、防止するために不可欠です。 ログは、システム、ネットワーク、アプリケーションのパフォーマンスを最適化するため、また、セキュリティ調査と回復性アクティビティを支援し、法令に遵守するためにも不可欠です。

次の表では、Copilot for Security の顧客データとシステム生成ログを比較しています。

顧客データ システム生成ログ
- ユーザーが Copilot for Security に提供するプロンプト。
- 応答を生成するために取得される情報。
- 応答。
- ピン留めされた項目の内容。
- 応答に関する顧客のフィードバック。
- ファイルのアップロード。
- アカウント情報 (テナント ID、アカウント ID、ライセンスなど)。
- 利用状況データ。
- パフォーマンス情報。
- 内部システム動作情報。

顧客データの共有設定

データ共有は既定で有効になっています。 Copilot の所有者は、初回実行エクスペリエンス中で、また、その後いつでも、顧客データのデータ共有設定を変更できます。

次の表で説明するこれらの顧客データ共有設定を有効または無効にすることは、Microsoft 製品/サービス データ保護追加契約に基づく Microsoft の権利または責任には影響を与えません。

次のデータ共有オプションを利用できます:

設定 説明
Copilot for Security からデータをキャプチャし、人間によるレビューを使用して製品のパフォーマンスを検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- Copilot for Security が、ユーザーの要求に対する応答を正常に提供し、ユーザーのプロンプトに基づいて対処する必要がある機能ギャップを把握する機能。

- 顧客が Copilot for Security を使用しているタスクの種類を把握します。

- 応答の使いやすさと品質に関するメトリクスを作成します。

- 顧客が購入および統合した他の Microsoft 製品に関与する Copilot for Security 機能を検証します。

- 他の Microsoft 製品にアクセスするプラグインからの応答を改善します。

注: オンにすると、データはデータ処理ポリシーに従って米国内に格納されます。 詳細については、「プロンプト評価の場所を設定し、データ共有にオプトイン (またはオプトアウト) する」をご覧ください。
Copilot for Security からデータをキャプチャして人間によるレビューを行い、Microsoft のセキュリティ AI モデルを構築して検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- キャプチャされたデータは、Azure OpenAI 基盤モデルの上に構築されるセキュリティ固有のモデルを開発するために使用され、これにより、Copilot for Security と統合先のその他の Microsoft 製品でよりインテリジェントでパーソナライズされた機能が実現します。

注: データは OpenAI と共有されず、Azure OpenAI 基盤モデルのトレーニングに使用されることもありません。
Microsoft 365 サービスのデータにアクセスすることを Copilot for Security に許可する オンにすると、Copilot for Security では、Copilot for Security と Microsoft 365 サービスの両方の顧客であり、Microsoft 365 サービスへの Copilot for Security アクセスを許可している場合、Microsoft 365 サービスから代わりにデータを取得することができます。

顧客データの保存場所

顧客がデータ共有にオプトインしていない場合、顧客データは保存時にテナントのホーム "地域" に格納されます。 たとえば、ホームがドイツにある顧客テナントの場合、顧客データはドイツの指定地域である "ヨーロッパ" に格納されます。

データ共有にオプトインすると、プロンプトや応答などの顧客データは、製品のパフォーマンスの強化、精度の改善、応答の遅延への対応などを行えるよう、Microsoft と共有されます。 この場合、プロンプトなどの顧客データは、テナントの地域の外部に格納される可能性があります。

詳細については、「Azure でのデータ所在地」をご覧ください。

プロンプト評価の場所

Microsoft Copilot 製品では、プロンプトとは、Copilot for Security に応答を生成するよう指示する、プロンプト バーに入力するテキストベースの自然言語入力のことを指します。 プロンプトは、Copilot がセキュリティ関連のタスクに役立つ回答を生成するために必要な、最も重要な入力です。 プロンプトは、Azure のセキュリティとプライバシーの管理策で保護された Azure データセンターの GPU リソースを使用して評価されます。

プロンプトを評価する場所は、次のいずれかの場所から選択できます:

  • オーストラリア (ANZ)
  • ヨーロッパ (EU)
  • 英国 (UK)
  • 米国 (US)

世界中のどの場所でもプロンプトの評価を受けることを選択でき、メインの場所で高アクティビティが発生している場合でも、中断が発生する可能性を軽減することができます。 

Microsoft では、プロンプトの評価を、使用可能な GPU 容量があるあらゆる場所で受けることをお勧めします。これにより、Copilot システムは、負荷、遅延、応答性に基づいて最適な場所を判断できるようになります。 

注:

顧客データの共有にオプトインしない限り、データ (セッション) は常にテナントのホーム地域に格納されます。 詳細については、「顧客データの保存場所」をご覧ください。

プロンプト評価の場所を設定し、データ共有にオプトイン (またはオプトアウト) する

初期セットアップ中、Copilot 所有者は、データ共有とプロンプト評価のオプションを設定するよう求められます。 詳細については、「Copilot for Security の使用を開始する」をご覧ください。 Copilot の所有者は、初回実行エクスペリエンス中、またはその後いつでも、これらの設定を変更できます。

権限のある役割
データ共有オプションを変更するには、Copilot 所有者である必要があります。 役割の詳細については、「認証について」をご覧ください。

データ共有を設定する

初期セットアップ中、Copilot 所有者には次のデータ共有オプションが提示されます:

設定 説明
Copilot for Security からデータをキャプチャし、人間によるレビューを使用して製品のパフォーマンスを検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- Copilot for Security が、ユーザーの要求に対する応答を正常に提供し、ユーザーのプロンプトに基づいて対処する必要がある機能ギャップを把握する機能。

- 顧客が Copilot for Security を使用しているタスクの種類を把握します。

- 応答の使いやすさと品質に関するメトリクスを作成します。

- 顧客が購入して統合した他の Microsoft 製品に関連する Copilot for Security 機能を検証します。

- 他の Microsoft 製品にアクセスするプラグインからの応答を改善します。

注: オンにすると、データはデータ処理ポリシーに従って米国にも格納されます。 詳細については、「Azure OpenAI Service のデータ、プライバシー、セキュリティ」をご覧ください。
Copilot for Security からデータをキャプチャして人間によるレビューを行い、Microsoft のセキュリティ AI モデルを構築して検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- キャプチャされたデータは、Azure OpenAI 基盤モデルの上に構築されるセキュリティ固有のモデルを開発するために使用され、これにより、Copilot for Security と統合先のその他の Microsoft 製品でよりインテリジェントでパーソナライズされた機能が実現します。

注: データは OpenAI と共有されず、Azure OpenAI 基盤モデルのトレーニングに使用されることもありません。
  • データ共有にオプトインすると、その時点以降、顧客データは Microsoft と共有されます。
  • データ共有をオプトアウトすると、それ以降の顧客データは共有されません。 以前に共有された顧客データは、180 日を上限として保持されます。

データ共有の更新

  1. Copilot for Security で、[設定]>[所有者の設定] に移動します。

  2. データ共有の選択を更新します。

Microsoft がデータを保護する方法

Microsoft は、包括的な管理策を使用してデータを保護しています。 すべての Copilot for Security データは、プライバシー、セキュリティ、コンプライアンス、責任ある AI 慣行への Microsoft の取り組みに沿った方法で処理されます。 データが格納されているシステムへのアクセスは、Microsoft の認定プロセスによって管理されます。

Copilot for Security はユーザーとしてクエリを実行するため、ユーザーが持つ特権を超える昇格された特権を持つことはありません。

顧客データの共有にオプトインした場合、データは:

  • OpenAI と共有されません
  • 営業目的で使用されません
  • サード パーティと共有されません
  • Azure OpenAI 基盤モデルのトレーニングに使用されません

Copilot for Security は、Azure 運用環境のすべてのデータ コンプライアンス基準を満たしています。

Azure に格納されているすべてのデータは保存時に自動的に暗号化され、AES-256 暗号化が使用されます。 詳細については、「データ暗号化」と「保存時の暗号化」を参照してください。

Microsoft Security 製品によるデータ処理

お客様が購入した Microsoft Security 製品は、製品ドキュメントに記載されているとおり、顧客データを含むデータを共有することがあります。 Copilot for Security と共有される顧客データは、製品使用条件、データ保護追加契約、および Copilot for Security に適用されるドキュメントによって管理されます。 Microsoft 365 サービスの場合、グローバル管理者は、「データ共有を設定する」で説明されている共有設定オプションで Copilot for Security を有効にする必要があり、ユーザーはこれらの Microsoft 365 サービスのプラグインを有効にする必要があります。 その他の Microsoft サービスの場合、このようなプラグインはユーザーに対して既定で有効になっています。 ユーザーはいつでもプラグインをオフにできます。 詳細については、「プラグインを管理する」をご覧ください。

Copilot for Security ユーザーからのフィードバック

Microsoft は、Microsoft Copilot for Security によって生成された応答に関するフィードバックを本製品のユーザーから収集しています。 Copilot 所有者は、サポート チケットを通じて Microsoft サポートに連絡することで、テナントのフィードバック収集をオフにすることができます。 詳細については、「サポートに問い合わせる」をご覧ください。

関連項目

Azure OpenAI Service のデータ、プライバシー、セキュリティ

Microsoft の責任ある AI 原則