Microsoft Purview を使用して、AI の使用に関連するリスクを軽減および管理し、対応する保護とガバナンス制御を実装します。
このページの以降のセクションでは、AI 用データ セキュリティ態勢管理の概要と、追加のデータ セキュリティとコンプライアンス制御を提供する Microsoft Purview 機能について説明します。これにより、Organizationの Copilots とエージェント、およびその他の生成的な AI アプリの導入が加速されます。
一部の Microsoft Purview ソリューションでは、サポートされている AI アプリが次のカテゴリ名でグループ化されている場合があります。
Copilot のエクスペリエンスとエージェント、またはサポートされている Copilots およびエージェントに対するMicrosoft Copilotエクスペリエンス。
- Microsoft 365 Copilot
- Security Copilot
- Fabric の Copilot
- Copilot Studio
Entra 登録、データ コネクタ、Azure AI Foundry、その他の方法を使用してorganizationに接続されている、Copilot 以外の AI アプリおよびエージェント用のエンタープライズ AI アプリには、次のものが含まれます。
- Entra 登録済み AI アプリ
- ChatGPT Enterprise
- Azure AI サービス
ブラウザー アクティビティを通じて検出され、Defender for Cloud Apps カタログの "ジェネレーティブ AI" として分類されるその他の AI アプリには、次のものが含まれます。
- ChatGPT
- Google Gemini
- Microsoft Copilot (コンシューマー バージョン)
- DeepSeek
アプリ別の AI 操作でサポートされる Microsoft Purview のセキュリティとコンプライアンスの機能の詳細については、次の表に示すその他のページを参照してください。 これらの AI アプリがエージェントをサポートする場合は、親 AI アプリと同じセキュリティとコンプライアンス機能を継承します。 ただし、簡単な概要については、「 Microsoft Purview を使用して AI エージェントのデータ セキュリティ & コンプライアンスを管理する」を参照してください。
Copilot の経験とエージェント | エンタープライズ AI アプリ | その他の AI アプリ |
---|---|---|
Microsoft 365 Copilot & Microsoft 365 Copilot Chat | Entra 登録済み AI アプリ | その他の AI アプリ |
Microsoft Security Copilot | Azure AI サービス | |
Fabric でのMicrosoft Copilot | ChatGPT Enterprise | |
Microsoft Copilot Studio | ||
Microsoft ファシリテーター |
Microsoft Purview を初めてご使用になる場合は、製品の概要 (Microsoft Purview に関する説明) も役立つでしょう。
AI 用 Microsoft Purview データ セキュリティ態勢管理
AI のMicrosoft Purview データ セキュリティ態勢管理 (DSPM) をフロント ドアとして使用して、企業全体で AI の使用に対するコンプライアンス制御を検出、セキュリティ保護、適用します。 このソリューションでは、Microsoft Purview の情報保護とコンプライアンス管理の既存のコントロールと、使いやすいグラフィカル ツールとレポートを使用して、organization内での AI の使用に関する分析情報をすばやく得ることができます。 パーソナライズされた推奨事項を使用すると、ワンクリック ポリシーを使用すると、データを保護し、規制要件に準拠できます。
詳細については、「AI のデータ セキュリティ態勢管理 (DSPM) について学習する」を参照してください。
Microsoft Purview が AI アプリの情報保護を強化
AI はパワーとスピードによってコンテンツを事前に表面化できるため、生成型 AI はデータの過剰共有や漏洩の問題とリスクを増幅します。 Microsoft Purview の情報保護機能が、既存のデータ セキュリティ ソリューションの強化にどのように役立つかについて説明します。
秘密度ラベルと AI の相互作用
Microsoft Purview がサポートする AI アプリでは 、既存のコントロールを使用して、テナントに格納されているデータがユーザーに返されたり 、ユーザーがそのデータにアクセスできない場合は大きな言語モデル (LLM) によって使用されたりしないようにします。 データにorganizationの秘密度ラベルがコンテンツに適用されている場合は、追加の保護レイヤーがあります。
Outlook でファイルをWord、Excel、PowerPoint、または同様に電子メールまたは予定表イベントで開くと、ラベルに対して構成されているラベル名とコンテンツ マーキング (ヘッダーやフッター テキストなど) を使用して、アプリ内のユーザーにデータの機密性が表示されます。 Loopコンポーネントとページでも、同じ秘密度ラベルがサポートされます。
秘密度ラベルが暗号化を適用する場合、AI アプリがデータを返すには、ユーザーが EXTRACT の使用権限と VIEW を持っている必要があります。
この保護は、Office アプリ (使用中のデータ) で開いたときに、Microsoft 365 テナントの外部に格納されているデータに拡張されます。 たとえば、ローカル ストレージ、ネットワーク共有、クラウド ストレージなどです。
ヒント
SharePoint と OneDrive の秘密度ラベルをまだ有効にしていない場合は、これらのサービスで処理できるファイルの種類とラベルの構成についても理解することをお勧めします。 これらのサービスで秘密度ラベルが有効になっていない場合、Copilot とエージェントがアクセスできる暗号化されたファイルは、Windows 上の Office アプリから使用されているデータに制限されます。
手順については、「SharePoint および OneDrive で Office ファイルの秘密度ラベルを有効にする」を参照してください。
秘密度ラベルをまだ使用していない場合は、「秘密度ラベルの概要」を参照してください。
秘密度ラベルと AI 操作を使用しない暗号化
機密ラベルがコンテンツに適用されていない場合でも、サービスと製品は Microsoft Azure AD Rights Management サービスの暗号化機能を使用する可能性があります。 その結果、AI アプリは、データとリンクをユーザーに返す前に、VIEW と EXTRACT の使用権限を引き続きチェックできますが、新しい項目に対する保護の自動継承はありません。
ヒント
機密ラベルを常に使用してデータを保護し、ラベルによって暗号化を適用すると、最適なユーザー エクスペリエンスが得られます。
秘密度ラベルなしで Microsoft Azure AD Rights Management サービスの暗号化機能を使用できる製品とサービスの例を次に示します:
- Microsoft Purview のメッセージの暗号化
- Microsoft Information Rights Management (IRM)
- Microsoft Rights Management コネクタ
- Microsoft Rights Management SDK
Microsoft Azure AD Rights Management サービスを使用しない他の暗号化方法の場合:
S/MIME で保護されたメールは Copilot から返されません。また、S/MIME で保護されたメールが開いている場合、Outlook では Copilot を使用できません。
パスワードで保護されたドキュメントは、同じアプリ (使用中のデータ) でユーザーによって既に開かれている場合を除き、AI アプリからアクセスできません。 パスワードは、移行先アイテムによって継承されません。
電子情報開示や検索など、他の Microsoft 365 サービスと同様に、 Microsoft Purview カスタマー キー または 独自のルート キー (BYOK) で暗号化されたアイテムがサポートされ、Copilot から返される資格があります。
データ損失防止と AI 操作
Microsoft Purview データ損失防止 (DLP) は、Microsoft 365 サービスとエンドポイント全体で機密性の高いアイテムを特定し、それらを監視し、それらのアイテムの漏洩から保護するのに役立ちます。 コンテンツの詳細な検査とコンテキスト分析を使用して機密性の高い項目を特定し、財務記録、健康情報、知的財産などの機密データを保護するためのポリシーを適用します。
Microsoft Purview にオンボードされている Windows コンピューターは、ユーザーがブラウザー経由でアクセスするサードパーティの生成 AI サイトと機密情報を共有することを警告またはブロックするエンドポイント データ損失防止 (DLP) ポリシー用に構成できます。 たとえば、ユーザーがクレジットカード番号をChatGPTに貼り付けないようにしたり、オーバーライドできることを示す警告が表示されたりします。 サポートされている DLP アクションと、それらをサポートするプラットフォームの詳細については、 監視およびアクションを実行できるエンドポイント アクティビティの表の最初の 2 行を参照してください。
さらに、AI の場所を対象とした DLP ポリシーでは、AI アプリが機密性の高いコンテンツを処理できないように制限できます。 たとえば、DLP ポリシーでは、"機密性の高い" などの秘密度ラベルに基づいてファイルを要約するMicrosoft 365 Copilotを制限できます。 このポリシーを有効にした後、Microsoft 365 Copilotとエージェントは"極秘" というラベルの付いたファイルを要約しませんが、ユーザーが Word を使用してコンテンツを開いて表示できるように、リンクで参照できます。 この DLP 構成をサポートする AI アプリの詳細については、「Microsoft 365 Copilot ポリシーの場所について」を参照してください。
Insider Risk Management と AI の相互作用
Microsoft Purview インサイダー リスク管理は、IP の盗難、データの漏洩、セキュリティ違反などの内部リスクを検出、調査、軽減するのに役立ちます。 Microsoft 365 およびサード パーティのインジケーターからの機械学習モデルとさまざまなシグナルを利用して、悪意のある、または不注意なインサイダー アクティビティの可能性を特定します。 このソリューションには、仮名化やロールベースのアクセスなどのプライバシー制御が含まれており、リスク アナリストが適切なアクションを実行できるようにしながら、ユーザー レベルのプライバシーを確保します。
危険な AI 使用状況ポリシー テンプレートを使用して、迅速なインジェクション攻撃や保護された素材へのアクセスを含む危険な使用状況を検出します。 これらのシグナルからの分析情報は、AI 関連のリスクの包括的なビューを提供するために、Microsoft Defender XDRに統合されています。
データ分類と AI の相互作用
Microsoft Purview データ分類は、Office 365、Dynamics 365、Azure など、さまざまな Microsoft サービス全体で機密データを識別してタグ付けするための包括的なフレームワークを提供します。 多くの場合、データの分類は、データ保護規制への準拠を確保し、不正なアクセス、変更、または破棄から保護するための最初の手順です。 組み込みのシステム分類を使用することも、独自の分類を作成することもできます。
機密情報の種類とトレーニング可能な分類子を使用して、AI アプリを使用する際のユーザー プロンプトと応答で機密データを見つけることができます。 結果の情報は、AI 用データ セキュリティ態勢管理のデータ分類ダッシュボードとアクティビティ エクスプローラーに表示されます。
Microsoft Purview では、AI アプリのコンプライアンス管理がサポートされています
サポートされている AI アプリを使用した対話は、テナント内のユーザーごとに監視できます。 そのため、データ分類と共に、Microsoft Purview の監査、コミュニケーション コンプライアンス、コンテンツ検索による電子情報開示、データ ライフサイクル管理からの自動保持と削除機能を使用して、この AI の使用状況を管理できます。
監査と AI の対話
Microsoft Purview 監査 ソリューションは、ユーザーと管理者がさまざまな Microsoft サービス間で実行したアクティビティの監査記録を検索および管理するための包括的なツールを提供し、組織がセキュリティ イベント、フォレンジック調査、内部調査、コンプライアンス義務に効果的に対応するのに役立ちます。
他のアクティビティと同様に、プロンプトと応答は 統合監査ログにキャプチャされます。 イベントには、ユーザーが AI アプリと対話する方法とタイミングが含まれます。また、アクティビティが行われた Microsoft 365 サービスと、操作中にアクセスされた Microsoft 365 に格納されているファイルへの参照を含めることができます。 これらのファイルに秘密度ラベルが適用されている場合は、それもキャプチャされます。
これらのイベントはAI 用データ セキュリティ態勢管理のアクティビティ エクスプローラーに流れ込み、プロンプトと応答のデータを表示できます。 また、Microsoft Purview ポータルの監査ソリューションを使用して、これらの監査イベントを検索して検索することもできます。
詳細については、「 Copilot と AI アクティビティの監査ログ」を参照してください。
コミュニケーション コンプライアンスと AI インタラクション
Microsoft Purview コミュニケーション コンプライアンスには、さまざまなコミュニケーション チャネル (AI アプリのユーザー プロンプトや応答など) で規制コンプライアンスとビジネス行為違反を検出および管理するのに役立つツールが用意されています。 既定ではプライバシーを使用して設計されており、ユーザー名を仮名化し、ロールベースのアクセス制御を組み込みます。 このソリューションは、機密情報、ハラスメント、脅威、成人コンテンツの共有など、不適切なコミュニケーションを特定して修復するのに役立ちます。
AI アプリの通信コンプライアンス ポリシーの使用の詳細については、「 生成的な AI 対話を検出するように通信コンプライアンス ポリシーを構成する」を参照してください。
コンテンツ検索と AI 操作を使用した電子情報開示
Microsoft Purview eDiscoveryを使用すると、訴訟で証拠として使用できる電子情報を特定して配信できます。 Microsoft Purview の電子情報開示ツールでは、Exchange Online、OneDrive for Business、SharePoint Online、Microsoft Teams、Microsoft 365 グループ、Viva Engage の各チームでコンテンツを検索できます。 その後、情報が削除されないようにし、情報をエクスポートできます。
AI アプリに対するユーザーのプロンプトと応答はユーザーのメールボックスに格納されるため、ケースを作成し、検索クエリのソースとしてユーザーのメールボックスが選択されたときに 検索 を使用できます。 たとえば、クエリ ビルダーの [Add condition>Type>Equals any>Add/Remove more options>Copilot 操作からこのデータを選択して、ソース メールボックスから取得します。
検索が絞り込まれたら、結果をエクスポートするか、 レビュー セットに追加できます。 レビュー セットから直接情報を確認およびエクスポートできます。
ユーザー AI 操作データの識別と削除の詳細については、「電子情報開示で Copilot データを検索して削除する」を参照してください。
データ ライフサイクル管理と AI の相互作用
Microsoft Purview データ ライフサイクル管理には、必要なコンテンツを保持し、不要なコンテンツを削除することで、組織データのライフサイクルを管理するためのツールと機能が用意されています。 これらのツールは、ビジネス、法律、規制の要件への準拠を保証します。
アイテム保持ポリシーを使用して、AI アプリのユーザー プロンプトと応答を自動的に保持または削除します。 このリテンション期間のしくみの詳細については、「 Copilot & AI アプリのリテンション期間について」を参照してください。
すべてのアイテム保持ポリシーと保持と同様に、同じ場所の複数のポリシーがユーザーに適用される場合、 保持の原則 によって競合が解決されます。 たとえば、データは、適用されたすべての保持ポリシーまたは電子情報開示ホールドの最も長い期間保持されます。
コンプライアンス マネージャーと AI の対話
Microsoft Purview コンプライアンス マネージャー は、マルチクラウド環境全体のコンプライアンスを自動的に評価および管理するのに役立つソリューションです。 コンプライアンス マネージャーは、データ保護リスクのインベントリの作成から、複雑な制御の実装の管理、規制や認証の最新情報の入手、監査人への報告まで、コンプライアンスの過程全体を支援します。
コンプライアンス マネージャーは、AI 規制への準拠を維持するために、すべての生成型 AI アプリのコンプライアンス要件を評価、実装、強化するのに役立つ規制テンプレートを提供します。 たとえば、AI の相互作用を監視し、AI アプリケーションでのデータ損失を防ぎます。 詳細については、「 AI 規制の評価」を参照してください。
ジェネレーティブ AI アプリのセキュリティ保護と管理に役立つその他のドキュメント
ブログ投稿のお知らせ: 次世代のセキュリティとガバナンス機能を使用して AI の導入を加速する
Microsoft 365 Copilot:
関連リソース: