次の方法で共有


セキュリティで保護された AI

この記事は、Azure で AI ワークロードのセキュリティ プロセスを確立するのに役立ちます。 セキュリティで保護された AI 環境は、ビジネス目標をサポートし、AI ソリューションに対する利害関係者の信頼を築きます。

AI のセキュリティ リスクを検出する

AI ワークロードは、従来のセキュリティ対策では対処できない新しい攻撃対象領域を作成します。 効果的な防御を構築するには、AI 固有の脆弱性を体系的に評価する必要があります。 その方法は次のとおりです。

  1. 環境全体の AI システム リスクを特定します。 AI システムは、検出に特化した評価フレームワークを必要とする、進化する脅威に直面しています。 これらのフレームワークは、機械学習と AI ワークロードに固有の攻撃ベクトルを理解するのに役立ちます。 MITRE ATLASOWASP Generative AI リスクなどのフレームワークを使用して、組織内のすべての AI ワークロードのリスクを特定します。

  2. ワークフロー全体で AI データのリスクを評価します。 AI ワークフローの機密データは、内部関係者の脅威やデータ 漏洩のリスクを高め、ビジネス運用を侵害する可能性があります。 データ リスク評価は、実際の露出レベルに基づいてセキュリティ投資に優先順位を付けるのに役立ちます。 Microsoft Purview Insider Risk Management などのツールを使用して、企業全体のデータ リスクを評価し、データの秘密度レベルに基づいて優先順位を付けます。

  3. セキュリティの脆弱性について AI モデルをテストします。 AI モデルには、攻撃者が悪用できるデータ漏えい、迅速な挿入、モデルの反転などの固有の脆弱性が含まれています。 実際のテストでは、静的レビューでは検出できないリスクが明らかになります。 データ損失防止手法と敵対的シミュレーションを使用して脆弱性のモデルをテストし、実際の攻撃をシミュレートするために 生成 AI モデルと非変性 AI モデルの両方をレッド チームでテストします。

  4. 定期的なリスク アセスメントを実施します。 AI モデル、使用パターン、脅威アクターが時間の経過と同時に進化するにつれて、新しい脅威が発生します。 定期的な評価により、セキュリティ体制が変化するリスクランドスケープに適応します。 定期的な評価を実行して、モデル、データ パイプライン、デプロイ環境の脆弱性を特定し、評価結果を使用してリスク軽減の優先順位を導きます。

AI リソースとデータを保護する

AI システムには、不正アクセスや攻撃に対する強力な保護が必要な貴重な資産が含まれています。 これらの重要なリソースを保護するには、特定のセキュリティ制御を実装する必要があります。

AI リソースの保護

包括的なセキュリティ対策により、AI への投資が保護され、AI ソリューションに対する利害関係者の信頼が維持されます。 AI インフラストラクチャのすべてのコンポーネントをセキュリティで保護するには、対象となるコントロールを適用する必要があります。 その方法は次のとおりです。

  1. 完全な AI 資産インベントリを作成します。 不明なAI資産は、攻撃者が不正アクセスを行うために悪用するセキュリティの弱点を生じさせます。 包括的なインベントリにより、すべての AI コンポーネントの効果的な監視と迅速なインシデント対応が可能になります。 Azure Resource Graph Explorer を使用して、サブスクリプション間で AI リソースを検出し、Microsoft Defender for Cloud を実装して生成 AI ワークロードを特定し、自動スキャンと定期的な検証を通じてこのインベントリを維持します。

  2. すべての AI 通信チャネルをセキュリティで保護します。 AI コンポーネント間の通信パスが公開されると、データの傍受とシステムの侵害が可能になります。 適切にセキュリティ保護されたチャネルは、未承認のアクセスを防ぎ、転送中の機密情報を保護します。 資格情報を格納せずにセキュリティで保護された認証のための マネージド ID を 実装し、 仮想ネットワーク を使用して AI 通信を分離し、 Azure API Management を デプロイしてモデル コンテキスト プロトコル サーバー エンドポイントをセキュリティで保護します。

  3. プラットフォーム固有のセキュリティ制御を適用します。 さまざまな AI デプロイ モデルは、アーキテクチャと露出ポイントに基づいて個別のセキュリティの脅威に直面します。 プラットフォームに合わせたコントロールは、各展開の種類に存在する特定の脆弱性に対処します。 デプロイ モデルに基づく専用のセキュリティ ガイダンスに従います。

AI データをセキュリティで保護する

AI ワークロードは、不正アクセス、データ 漏洩、コンプライアンス違反を防ぐために堅牢な保護を必要とするデータと成果物に依存します。 AI データとアーティファクトを保護するには、包括的なデータ セキュリティ対策を実装する必要があります。 その方法は次のとおりです。

  1. データ境界を定義して維持します。 データ境界をクリアすると、AI ワークロードは、意図した対象ユーザーとユース ケースに適したデータにのみアクセスできます。 Microsoft Purview を使用して、データの機密性を分類し、アクセス ポリシーを定義します。 Azure ロールベースのアクセス制御 (RBAC) を実装して、ワークロードとユーザー グループによるデータ アクセスを制限します。 Azure Private Link を使用して、AI アプリケーション間でネットワーク レベルのデータ分離を作成します。

  2. 包括的なデータ損失防止を実装します。 AI 対応による未承認のデータ公開は、機密情報を侵害し、規制要件に違反する可能性があります。 データ損失防止コントロールは、AI モデルが誤って保護されたデータを出力に表示するのを防ぎます。 Microsoft Purview データ損失防止を使用して、AI ワークフローの機密データをスキャンおよびブロックします。 機密情報の漏洩を防ぐために コンテンツ フィルターを 構成し、組織固有の機密データ パターンを検出して編集するカスタム フィルターを実装します。 Microsoft Copilot Studio の場合は、 エージェントのデータ損失防止ポリシーを構成します

  3. AI アーティファクトを侵害から保護します。 セキュリティで保護されていない AI モデルとデータセットは、盗難、中毒、リバース エンジニアリング攻撃のターゲットになります。 保護された成果物は、知的財産の価値を維持し、AI システムの悪意のある操作を防ぎます。 プライベート エンドポイントを使用して Azure Blob Storage にモデルとデータセットを格納し、保存時と転送中の暗号化を適用し、承認されていないアクセス試行を検出するための監視付きの厳格なアクセス ポリシーを実装します。

AI セキュリティの脅威を検出する

AI システムは、セキュリティ侵害やサービスの中断を防ぐために継続的な監視を必要とする、進化する脅威に直面しています。 迅速な脅威検出により、AI 投資が保護され、ビジネス継続性が維持されます。 AI 固有のセキュリティ インシデントに効果的に対処するには、自動化された監視と対応の機能を実装する必要があります。 その方法は次のとおりです。

  1. 環境全体に自動化された AI リスク検出をデプロイします。 AI ワークロードでは動的な脅威が発生し、手動監視では損傷を防ぐのに十分な速さで検出できません。 自動化されたシステムは、新たなリスクをリアルタイムで可視化し、セキュリティ インシデントへの迅速な対応を可能にします。 Microsoft Defender for Cloud の AI セキュリティ体制管理 を使用して、Azure 環境全体の生成 AI リスクの検出と修復を自動化します。

  2. AI に重点を置いたインシデント対応手順を確立します。 検出されないセキュリティ インシデントは、データの損失、モデルの侵害、ビジネス運用に損害を与えるサービスの中断につながる可能性があります。 特殊なインシデント対応手順は、AI セキュリティ イベントの固有の特性に対処します。 AI 固有の脅威に対処し、AI システムの侵害のインジケーターを継続的に監視するインシデント対応計画を構築してテストします。 さまざまな種類の AI セキュリティ インシデントに対して明確なエスカレーション手順を確立します。

  3. プラットフォーム固有の監視戦略を実装します。 さまざまなプラットフォームにデプロイされた AI ワークロードは、カスタマイズされた監視アプローチを必要とする個別のセキュリティ課題に直面します。 プラットフォーム固有の監視により、潜在的なすべての攻撃ベクトルが包括的にカバーされます。 デプロイ アーキテクチャに基づいて監視ガイダンスを適用します。

Azure のリソース

カテゴリ ツール 説明
資産の検出 Azure Resource Graph エクスプローラー Azure サブスクリプション全体で AI リソースを検出してインベントリする
セキュリティの監視 Microsoft Defender for Cloud 生成 AI ワークロードとセキュリティ リスクを識別します
ID 管理 マネージドアイデンティティ 資格情報を格納せずに AI サービス認証をセキュリティで保護する
ネットワークのセキュリティ 仮想ネットワーク AI 通信を分離し、ネットワーク アクセスを制限する
API のセキュリティ Azure API Management モデル コンテキスト プロトコル サーバー エンドポイントをセキュリティで保護する
データ保護 Azure Blob Storage アクセス制御を使用して AI アーティファクト用に暗号化されたストレージを提供します
データ ガバナンス Microsoft Purview 秘密度ラベルを使用して AI データをカタログ化して分類する

次のステップ

AI のガバナンス、AI の管理、セキュリティで保護された AI は、定期的な反復処理を必要とする継続的なプロセスです。 必要に応じて、各 AI 戦略、AI 計画、AI-Ready を見直します。 AI 導入チェックリストを使用して、次のステップを決定します。