人間と AI の相互作用に関するガイドラインの概要

この記事では、Microsoft の人間と AI の相互作用設計に関して推奨される 18 のガイドラインの背景と、それらを適用する方法について説明します。 AI 分野の Microsoft の専門家は、このガイダンスを開発するための長年の研究と考え方に基づいて取り上げてきました。

人間と AI の相互作用に関するガイドラインが必要なのはなぜですか?

AI システムは、破壊的、混乱、攻撃的、または危険な可能性がある予測不可能な動作を示す可能性があるため、人間と AI の相互作用に関するガイドラインが必要です。 このような理由から、AI システムは、多くの場合、従来の人間とコンピューターの相互作用の設計原則に違反します。

従来のアプリケーションまたは製品が一貫して動作しない場合は、設計上の欠陥またはバグがあると判断されます。 ただし、不一致と不確実性は、確率論的な性質と、新しいデータで学習するにつれて時間の経過と共に変化するため、AI が注入されたシステムに固有です。

精度、障害モード、理解する能力など、AI サービスの属性は、製品、サービス、アプリケーション開発者にとって新しい課題と機会を生み出します。

ガイドラインは何ですか?

Microsoft では、人間と AI の対話に一般的に適用される 18 の設計ガイドラインを提案しています。

これらのガイドラインは、AI を使いやすくする方法に関する 20 年以上の思考と研究を合成します。 Microsoft チームは、3 回の検証を通じてそれらを実行し、具体的で監視可能で、理解しやすいことを確認しました。 オリジナルの研究論文を読むことができます。

1 つの画像内のすべての人間と AI の相互作用のガイドライン

18 のガイドラインでは、意味のある AI を組み込んだエクスペリエンスを作成する方法に関する推奨事項が示されています。このエクスペリエンスを使用すると、ユーザーは自分の価値、目標、注意を尊重することができます。

ガイドラインは、適用するユーザー操作のフェーズに応じて、4 つのカテゴリにグループ化されます。

最初のフェーズ

システムへの最初の露出時に、ユーザーは何を期待するかを学習する必要があります。 このシステムの機能は何ですか? また、どの程度のパフォーマンスを発揮できますか? 不合理に高い期待を設定すると、フラストレーションや製品の放棄につながる可能性があるため、製品ができることを正直に伝え、その方法を伝える必要があります。 したがって、最初のカテゴリのガイドラインは、期待値の設定に関するものです。

1. システムでできることを明確にします。 AI システムが何を実行できるかをユーザーが理解できるように支援します。

2. システムが実行できる操作をどの程度適切に実行できるかを明確にします。 AI システムが間違いを犯す頻度をユーザーが理解できるように支援します。

対話中

このガイドラインのサブセットはコンテキストに関するものです。 AI システムは、より大きな社会的および文化的コンテキストであるか、ユーザーの設定、現在のタスク、および注意のローカル コンテキストであるかに関係なく、コンテキストに依存する人々とそのニーズに関する推論を行います。

3. コンテキストに基づくタイム サービス ユーザーの現在のタスクと環境に基づいて動作または中断する時間。

4. コンテキストに関連する情報を表示します。 ユーザーの現在のタスクと環境に関連する情報を表示します。

5. 関連する社会規範に一致します ユーザーが期待する方法でエクスペリエンスが提供されるようにします。これは、そのユーザーの社会的および文化的なコンテキストを考えるとです。

6. 社会的偏見を軽減する AI システムの言語と動作が、望ましくない不公平なステレオタイプとバイアスを強化しないようにします。

このグループのガイドライン5と6は、社会規範と偏見を考慮することを思い出させます。 データ セットは母集団を表していますか? モデルは、望ましくない社会的偏見を学習し、複製していますか? これらのガイドラインを効果的に適用するには、チームが互いの盲点をカバーするのに十分な多様性があることを確認します。

システムが間違っている場合

AI が注入されたシステムは必然的に間違っており、計画する必要があります。 システムが予期したタイミングでトリガーされないか、間違ったタイミングでトリガーされる可能性があるため、呼び出して無視するのは簡単です。 システムが間違っている場合は、簡単に修正でき、不明な場合は、ユーザーが自分でタスクを完了できる必要があります。 たとえば、AI システムは適切にフェードアウトしたり、ユーザーに説明を求めたりすることができます。

システムが間違っている場合、ユーザーは困惑し、不満を抱き、当然のことながらそうします。 そのような気持ちを防ぐにはどうすればよいですか? システムが実行した理由の説明を提供すると、ユーザーはシステムのしくみを理解し、それに共感し、フラストレーションの感情を減らすことができます。 ただし、これを行うには、システムに説明性を組み込み、不透明なボックスでは動作しない必要があります。

7. 効率的な呼び出しをサポートします 必要に応じて、AI システムのサービスを簡単に呼び出したり、要求したりできます。

8. 効率的な解雇をサポートします。 不要な AI システム サービスを簡単に無視または無視できるようにします。

9. 効率的な修正をサポートします。 AI システムが間違っている場合に、簡単に編集、調整、または回復できるようにします。

10. サービスの範囲が不明な場合 ユーザーの目標が不明な場合は、あいまいさを解消したり、AI システムのサービスを適切に低下させたりします。

11. システムが実行した理由を明確にします。 ユーザーが AI システムが動作した理由の説明にアクセスできるようにします。

経時的に

AI システムは、時間の経過と伴って学習し、改善します。 AI システムは、ユーザーの動作から学習する必要があります。 このグループのガイドラインでは、詳細なフィードバックを提供することで、ユーザーがシステムを教えるよう促します。 ユーザーがフィードバックを提供する際に、少なくともフィードバックが記録されたことを認め、将来のエクスペリエンスにどのような影響を与えるかを示すことによって、アクションの結果を伝えます。

ただし、システムが学習して改善し、モデルの更新を行う場合は、ユーザー エクスペリエンスに大きな破壊的変更を導入することに注意してください。 これらの変更を段階的にロールアウトし、ユーザーに通知する方法を事前に計画します。

12. 最近のやり取りを思い出す 短期メモリを維持し、ユーザーがそのメモリを効率的に参照できるようにします。

13. ユーザーの動作から学習します。 時間の経過に伴うアクションから学習することで、ユーザーのエクスペリエンスをカスタマイズします。

14. 更新し、慎重に適応します AI システムの動作を更新して適応させる際の破壊的変更を制限します。

15. 詳細なフィードバックを推奨します ユーザーが AI システムと定期的にやり取りする際に、自分の好みを示すフィードバックを提供できるようにします。

16. ユーザーアクションの結果を伝える ユーザーアクションが AI システムの将来の動作に与える影響を直ちに更新または伝達します。

17. グローバルコントロールを提供する ユーザーが AI システムで監視する内容と動作をグローバルにカスタマイズできるようにします。

18. 変更についてユーザーに通知します。 AI システムが機能を追加または更新したときに、ユーザーに通知します。

リソース