人工知能 (AI) 共有責任モデル

AI 対応の統合を検討して評価するときは、共有責任モデル、AI プラットフォームまたはアプリケーションのプロバイダーがどのタスクを処理するか、および自分がどのタスクを処理するかを理解することが重要です。 ワークロードの責任は、サービスとしてのソフトウェア (SaaS)、サービスとしてのプラットフォーム (PaaS)、サービスとしてのインフラストラクチャ (IaaS) のどれに AI 統合が基づいているかによって異なります。

責任の部署

クラウド サービスの場合と同様に、組織に AI 機能を実装する際はオプションがあります。 選択したオプションに応じて、AI を安全に使用するために必要な運用とポリシーのさまざまな部分について責任を負います。

次の図は、デプロイの種類に応じた、お客様と Microsoft の責任の範囲を示しています。

Diagram showing AI responsibility zones.

AI レイヤーの概要

AI 対応アプリケーションは、ユーザーまたは AI プロバイダーが実行するタスクがグループ化された 3 つの機能レイヤーで構成されます。 一般に、セキュリティの責任は、タスクを実行するユーザーが負いますが、AI プロバイダーが、必要に応じて、セキュリティやその他の制御を構成オプションとしてユーザーに公開する場合もあります。 次の 3 つのレイヤーがあります。

AI プラットフォーム

AI プラットフォーム レイヤーは、アプリケーションに AI 機能を提供します。 プラットフォーム レイヤーでは、AI モデル、トレーニング データ、モデルの動作を変更する特定の構成 (重みとバイアスなど) を実行するインフラストラクチャを構築し、保護する必要があります。 このレイヤーで、API を介して機能にアクセスできます。この API は、メタプロンプトと呼ばれるテキストを、処理のために AI モデルに渡し、生成された結果 (プロンプト - 応答と呼ばれる) を返します。

AI プラットフォームのセキュリティに関する考慮事項 - 悪意のある入力から AI プラットフォームを保護するために、安全システムを構築して、AI モデルに送信される、有害である可能性のある指示 (入力) を除去する必要があります。 AI モデルには生成機能があるため、有害なコンテンツ (出力) が生成され、ユーザーに返される可能性もあります。 あらゆる安全システムは、最初に、憎悪や脱獄などを含む、有害である可能性のある多くの分類の入力と出力から保護する必要があります。 これらの分類は、モデルの知識、ロケール、業界に基づいて、時間の経過と共に進化する可能性があります。

Microsoft の PaaS オファリングと SaaS オファリングにはいずれも安全システムが組み込まれています。

AI アプリケーション

AI アプリケーションは AI 機能にアクセスし、ユーザーが使用するサービスまたはインターフェイスを提供します。 このレイヤーのコンポーネントは、アプリケーションによって、比較的単純なものから複雑なものまでさまざまです。 最も単純なスタンドアロン AI アプリケーションは、テキストベースのユーザー プロンプトを取得し、そのデータを応答のためにモデルに渡す一連の API へのインターフェイスとして機能します。 より複雑な AI アプリケーションには、永続化レイヤーやセマンティック インデックスなどの追加のコンテキストを使用するか、プラグイン経由でユーザー プロンプトを作成して、より多くのデータ ソースへのアクセスを許可する機能が含まれます。 高度な AI アプリケーションは、既存のアプリケーションおよびシステムとのインターフェイスとなる場合もあります。 既存のアプリケーションとシステムは、テキスト、オーディオ、および画像にわたって機能して、さまざまな種類のコンテンツを生成する場合があります。

AI アプリケーションのセキュリティに関する考慮事項 - 悪意のあるアクティビティから AI アプリケーションを保護するために、アプリケーションの安全性システムを構築する必要があります。 安全システムは、AI モデルに送信されるメタプロンプトで使用されているコンテンツの詳細な検査を実行します。 また、安全システムは、あらゆるプラグイン、データ コネクタ、その他の AI アプリケーション (AI オーケストレーションと呼ばれます) との相互作用も検査します。 これを、独自の IaaS/PaaS ベースの AI アプリケーションに組み込む方法の 1 つは、Azure AI Content Safety サービスを使用することです。 その他の機能は、ニーズに応じて使用できます。

AI 使用

AI 使用レイヤーは、AI 機能が最終的にどのように使用されるかを説明しています。 生成 AI は、新しい種類のユーザー/コンピューター インターフェイスを提供し、これは、API、コマンド プロンプト、グラフィカル ユーザー インターフェイス (GUI) などの他のコンピューター インターフェイスとは根本的に異なっています。 生成 AI インターフェイスは、対話型かつ動的であり、コンピューターの機能を、ユーザーとその意図に合わせて調整できます。 生成 AI インターフェイスは、主にユーザーが、システムの設計と機能を学習し、それに合わせて調整しなければならない、以前のインターフェイスと対照的です。 この対話機能により、アプリケーション デザイナーではなく、ユーザー入力が、システムの出力に高レベルの影響を与えることができるため、人、データ、およびビジネス資産を保護するために安全策が不可欠となります。

AI 使用のセキュリティに関する考慮事項 - AI 使用の保護は、コンピューター システムの場合と同様です。これは、ID とアクセスの制御、デバイスの保護と監視、データ保護とガバナンス、管理コントロール、およびその他のコントロールに対するセキュリティ保証に依存しているためです。

システムの出力にユーザーが与える影響が高まるため、ユーザーの行動とアカウンタビリティの重要性を強調する必要があります。 許容範囲内の使用ポリシーを更新し、標準的な IT アプリケーションと AI 対応アプリケーションの違いについてユーザーを教育することが重要です。 これには、セキュリティ、プライバシー、倫理に関連する、AI 固有の考慮事項が含まれている必要があります。 さらに、ユーザーは、AI ベースの攻撃に関する教育を受ける必要があります。この攻撃を使用して、説得力のある偽のテキスト、音声、ビデオなどでユーザーを欺くことができます。

AI 固有の攻撃の種類は、以下で定義されています。

セキュリティ ライフサイクル

他の種類の機能のセキュリティの場合と同様に、アプローチ一式に対して計画することが重要です。 アプローチ一式とは、セキュリティ ライフサイクル全体、つまり、識別、保護、検出、対応、復旧、管理にわたる人々、プロセス、およびテクノロジです。 このライフサイクルに穴や弱点があると、以下の可能性があります。

  • 重要な資産がセキュリティで保護されない
  • 簡単に防止できる攻撃にさらされる
  • 要求を処理できない
  • ビジネス クリティカルなサービスを迅速に復元できない
  • コントロールの適用に一貫性がない

AI 脅威テストの独自の特性の詳細については、より安全な AI の未来を構築している Microsoft AI Red Team に関する記事を参照してください。

カスタマイズする前に構成する

Microsoft では、初めて導入する AI と、それ以降のすべての AI ワークロードに対して、Copilot モデルのような SaaS ベースのアプローチを組織が採用することをお勧めします。 これにより、これらの非常に複雑な機能の設計、運用、セキュリティ保護のために組織が提供する必要がある責任と専門知識のレベルが最小限に抑えられます。

現在の "既製" 機能が、ワークロードの特定のニーズを満たしていない場合は、Azure OpenAI Service などの AI サービスを使用して PaaS モデルを採用して、それらの特定の要件を満たすことができます。

カスタム モデルの構築は、データ サイエンスと、AI のセキュリティ、プライバシー、倫理的な考慮事項に関する深い専門知識を持つ組織でのみ採用される必要があります。

世界中で AI を使用できるようにするために Microsoft は、Bing と Windows から GitHub および Office 365 までの主要な生産性ソリューションごとに Copilot ソリューションを開発しています。 Microsoft は、あらゆる種類の生産性シナリオ向けのフル スタック ソリューションを開発しています。 これらは SaaS ソリューションとして提供されます。 製品のユーザー インターフェイスに組み込まれており、特定のタスクでユーザーを支援して生産性を高めるように調整されています。

Microsoft は、すべての Copilot ソリューションが確実に、AI ガバナンスの強力な原則に従って設計されるようにしています。

次のステップ

信頼できる AI のための、Microsoft の製品開発要件の詳細については、「Microsoft の責任ある AI の基本原則」を参照してください。

クラウド コンピューティングの共有責任に関する記事を参照してください。