責任ある信頼された AI
Microsoft では、責任ある AI における 6 つの基本原則として、アカウンタビリティ、包括性、信頼性と安全性、公平性、透明性、プライバシーとセキュリティを挙げています。 これらの原則は、AI がより主流な製品やサービスに活用されていく上で、責任があり、信頼できる AI を生み出すために不可欠です。 これらは、倫理と説明可能性という 2 つの視点から構成されています。
倫理
倫理的な観点から、AI は公正で包括的な主張を行い、行った判断に説明責任を持ち、異なる人種、障碍者、あるいは背景を持つ人を差別したり、拒まないことが求められます。
Microsoft は、2017 年に AI、倫理、およびエンジニアリングと研究における効果に関する倫理委員会 Aether を設置しました。 この委員会の主な業務は、責任ある問題、テクノロジ、プロセス、ベスト プラクティスについて、助言を行うことです。 詳しくは、「Microsoft のガバナンス モデルを理解する - AETHER + 責任ある AI オフィス」を参照してください。
アカウンタビリティ
アカウンタビリティは、責任ある AI の重要な柱です。 AI システムを設計して展開する担当者には、システムがより自律的に進歩している中では特に、その行動や決定に対するアカウンタビリティが求められます。 組織は、AI システムの開発と展開に関する監視、分析情報、およびガイダンスを提供する内部の審査機関を設置することを検討する必要があります。 このガイダンスは、会社や地域によって異なる場合がありますが、これには組織の AI ジャーニーを反映させるべきです。
包括性
包括性は、AI がすべての人種や経験を考慮することを義務付け、包括的な設計手法を用いることで、開発者が意図せずに人々を排除する可能性のある潜在的な障壁を理解し、それに対処するのに役立ちます。 聴覚、視覚、およびその他の障碍のある人々を支援するため、可能な限り、音声テキスト変換、テキスト読み上げ、および画像認識テクノロジを使用します。
信頼性と安全性
AI システムが信頼されるためには、信頼性が高く安全である必要があります。 システムが本来設計されたとおりに動作し、新しい状況にも安全に対応できるようにすることが重要です。 独自の復元力により、意図的または意図しない操作を防ぐ必要があります。 システムがエッジ ケースに安全に対応できることを保証するため、運用条件に対する厳格なテストと検証を確立し、A/B テストおよびチャンピオン/チャレンジャー メソッドを評価プロセスに統合する必要があります。
AI システムのパフォーマンスは時間の経過とともに低下する可能性があるため、モデルのパフォーマンスを事後および事前に測定し、必要に応じて再トレーニングを行って最新化を図るための、堅牢な監視とモデル追跡プロセスを確立する必要があります。
説明可能性
説明可能性は、データ サイエンティスト、監査担当者、およびビジネスの意思決定者が行った意思決定について、およびその結果にどのように到達したかを、AI システムによって合理的に正当化するのに役立ちます。 これにより、会社のポリシー、業界標準、政府の規制へのコンプライアンスも確保することができます。 データ サイエンティストは、どのようにして一定レベルの精度を達成したのか、そして何がこの結果に影響を与えたのかを利害関係者に説明できる必要があります。 同様に、会社のポリシーを遵守するためには、監査担当者であればモデルを検証するツールが必要となり、ビジネスの意思決定者であれば信頼を得るための透明性のあるモデルを提供できる必要があります。
説明可能性のためのツール
Microsoft は、グラスボックス モデルとブラックボックス モデルがサポートされている、モデルを説明可能にするためのオープンソースのツールキットである InterpretML を開発しました。
グラスボックス モデルは、その構造により解釈可能となっています。 これらのモデルでは、Explainable Boosting Machine を使用します。これは、デシジョン ツリー モデルまたは線形モデルに基づくアルゴリズムの状態であり、ロスレスの説明を生成し、ドメインの専門家が編集できます。
ブラックボックス モデルの内部構造 (ニューラル ネットワーク) は複雑であるため、解釈が困難になっています。 LIME や SHapley Additive exPlanations (SHAP) のような解釈ツールでは、入力と出力の関係を分析することで、これらのモデルの解釈を行っています。
Fairlearn は、SDK および AutoML グラフィカル ユーザー インターフェイス用のオープンソース ツールキットである Azure Machine Learning 統合です。 主に何がモデルに影響を与えるのかを理解し、ドメインの専門家によるこのような影響を検証するために、解釈ツールを使用します。
解釈可能性の詳細については、Azure Machine Learning におけるモデルの解釈可能性に関するページを参照してください。
公平性
公平性は、すべての人間が理解し、適用することを目指す、核となる倫理原則です。 この原則は、AI システムの開発時にはさらに重要になります。 システムによる決定が、性別、人種、性的指向、宗教へのバイアスがあるものであったり、グループまたは個人を差別したりするものでないよう、キー チェックとバランスが必要になります。
Microsoft では、AI システム向けのガイダンスとソリューションを提供する AI 公平性チェックリストを提供しています。 これらのソリューションは、構想、プロトタイプ、構築、始動、進化という 5 つのステージに大まかに分類されています。 ステージごとに、システムにおける不公平性の影響を最小限に抑えるために推奨されるデュー デリジェンス活動が一覧表示されています。
Fairlearn は、Azure Machine Learning と統合することで、データ サイエンティストや開発者が AI システムの公平性を評価、改善するために使用できます。 このツールボックスには、さまざまな不公平性緩和アルゴリズムと、モデルの公平性を視覚化する対話型ダッシュボードが用意されています。 このツールキットを使用して、モデルの構築中にその公平性を詳しく評価します。これは、データ サイエンス プロセスの不可欠な部分です。
機械学習モデルの公平性を軽減する方法についてはこちらを参照してください。
透明性
透明性を実現することで、チームはモデルのトレーニングに使用したデータとアルゴリズム、データに適用された変換ロジック、最終的に生成されたモデル、および関連付けられた資産について理解することができます。 この情報により、モデルがどのように作成されたかについての分析情報が得られるため、透明性の高い方法で再現することが可能になります。 Azure Machine Learning ワークスペース内のスナップショットでは、実験に関係するすべてのトレーニング関連の資産とメトリックを記録または再トレーニングすることで、透明性を実現しています。
プライバシーとセキュリティ
データ保有者には AI システム内のデータを保護する義務があり、プライバシーとセキュリティはこのシステムに不可欠な部分です。 個人はセキュリティで保護する必要があり、個人のプライバシーを侵害しない方法でアクセスする必要があります。 Azure の差分プライバシーでは、データをランダム化し、ノイズを加えることで、データ サイエンティストから個人情報を隠し、プライバシーを保護および維持しています。
人間と AI のガイドライン
人間と AI の設計ガイドラインは、最初、対話中、間違っている場合、および経時的という 4 つの期間にわたって発生する 18 の原則で構成されています。 これらの原則は、より包括的で人間中心の AI システムを構築できるよう設計されています。
最初
システムで実行できることを明確にする。 その AI システムでメトリックを使用する、または生成する場合は、それらすべてと、その追跡方法を示すことが重要です。
システムができることをどの程度うまく行えるかを明確にする。 AI の精度が完全ではないことをユーザーに理解させ、AI システムがミスをする可能性がある場合の期待水準を設定します。
対話中
文脈に関連する情報を表示する。 近くのホテルなど、ユーザーの現在の文脈と環境に関連する視覚的な情報を提供し、目的地と日付に近い詳細を返します。
社会的バイアスを軽減する。 言葉や行動で、意図しないステレオタイプやバイアスを示唆しないようにします。 たとえば、オートコンプリート機能では、両方の性別を認識できるようにします。
間違っている場合
- 効率的に無視できるようにする。 望ましくない機能やサービスを無視したり、却下したりするための簡単なメカニズムを提供します。
- 効率的に訂正できるようにする。 編集、調整、または復旧を容易にするための直感的な方法を提供します。
- システムが行った特定の行動の理由を明確にする。 説明可能な AI を最適化し、AI システムの主張に関する分析情報を提供します。
経時的に
- 直近の対話を記憶する。 後で参照できるように、対話の履歴を保持します。
- ユーザーの行動から学習する。 ユーザーの行動に基づいて対話をカスタマイズします。
- 更新と適応は慎重に行う。 混乱を招くような変更は制限し、ユーザーのプロファイルに基づいて更新を行います。
- 詳細なフィードバックを奨励する。 AI システムとの対話からのユーザー フィードバックを収集します。
ペルソナ中心の信頼された AI フレームワーク
AI 設計者
AI 設計者は、モデルを構築し、以下を担当します。
データ ドリフトと品質チェック。 外れ値を検出し、データ品質チェックを実施して欠損値を特定し、分布を標準化し、データを精査し、ユース ケースとプロジェクト レポートを作成します。
システムのソースのデータを評価して、潜在的なバイアスを特定します。
ビン分割、グループ化、正規化 (特に、ツリーベースなどの従来の機械学習モデルにおいて) によってデータからマイノリティ グループが排除されてしまうことを発見するなど、データの偏りを最小化するための AI アルゴリズムを設計します。 カテゴリ別の AI 設計では、業種内の保護医療情報 (PHI) や個人を特定できる情報 (PII) に依存する社会的、人種的、性別的なクラスをグループ化することで、データの偏りを再確認します。
監視とアラートを最適化して、ターゲットの漏れを特定し、モデルの開発を強化します。
モデルをより詳細に理解できるようにする報告と分析情報のためのベスト プラクティスを確立し、特徴量やベクトルの重要度、UMAP クラスタリング、Friedman の H 統計、特徴量の影響度などを使用するブラックボックス的なアプローチを回避します。 ID メトリックを使用すると、複雑および最新のデータセットの予測的影響、関係、および相関関係間の依存関係を定義できます。
AI 管理者と責任者
Ai 管理者と責任者は、AI、ガバナンス、監査フレームワークの運用とパフォーマンス メトリックに加え、AI セキュリティの実装方法や、ビジネスの投資収益率を監視します。
モデルの監視を支援する追跡ダッシュボードを監視し、実稼働モデルのモデル メトリックを統合して、精度、モデルの劣化、データ ドリフト、偏差、推論の速度とエラーの変化に注力します。
柔軟な展開と再展開を実装 (REST API を推奨) することで、モデルをビジネス プロセスに実装し、フィードバック ループのための価値を生み出すことができるオープンな非依存アーキテクチャにモデルを統合することができます。
モデルのガバナンスとアクセスの構築に取り組むことで、境界線を設定し、ビジネスおよび運用への悪影響を緩和します。 ロールベースのアクセス制御標準はセキュリティ制御を定義し、これによって制限された運用環境と IP が保持されます。
AI 監査とコンプライアンス フレームワークを使用して、業界独自の標準を維持するためにモデルがどのように開発、変化しているかを追跡します。 解釈可能で責任ある AI は、説明可能な手段、簡潔な機能、モデルの可視化、および業界特有の言語の上に成り立っています。
AI ビジネス コンシューマー
AI ビジネス コンシューマー (ビジネス エキスパート) は、フィードバック ループを閉じ、AI 設計者向けのインプットを提供します。 予測的な意思決定と、公平性や倫理的措置、プライバシーとコンプライアンス、ビジネスの効率性などの潜在的なバイアスの影響は、AI システムの評価に役立ちます。
フィードバック ループは、ビジネスのエコシステムの一部です。 モデルの偏り、エラー、予測速度、および公平性を示すデータは、AI 設計者、管理者、および責任者の間の信頼を生み出し、バランスを確立します。 人間中心の評価を行うことで、AI は時間をかけて徐々に改善されていきます。この際、多次元で複雑なデータを使用した AI 学習 (LO ショット学習) を最小限に抑えることで、偏りのある学習を防ぐことができます。
解釈可能性の設計とツールを使用することで、AI システムは潜在的なバイアスに対応できるようになります。 モデルの偏りと公平性の問題にフラグを立て、この動作から学習して偏りに自動的に対処するアラートおよび異常検出システムに渡す必要があります。
各予測値は、重要度や影響度に応じて個々の特徴やベクトルに分類して、監査やコンプライアンスのレビュー、顧客の透明性、ビジネスの準備に使用できるよう、ビジネス レポートへエキスポート可能な予測の説明を提供できる必要があります。
グローバルなセキュリティとプライバシーのリスクが増加しているため、推論中のデータ違反を解決するためのベスト プラクティスでは、各業界の規制に準拠している必要があります。たとえば、PHI と PII への非準拠、国家安全保障法への違反に関するアラートなどが挙げられます。
次のステップ
責任ある AI の詳細については、人間と AI のガイドラインに関するページを参照してください。