まとめ

完了

このモジュールでは、AI システムの固有の課題の理解から、効果的なレッド チーミング演習の計画と実行までにわたる、AI セキュリティ テストの最初の探索を提供しました。 AI が進化し続けるにつれて、セキュリティと安全性に対するアプローチも進化し続ける必要があり、AI ソリューションの整合性と信頼性を維持するために AI レッド チームのプラクティスが不可欠になります。

参考資料

次の記事とビデオ プレゼンテーションでは、AI レッド チーミングに対する Microsoft のアプローチについて詳しく説明します。

Azure OpenAI サービス - Azure OpenAI

Azure OpenAI サービスのコンテンツ フィルター処理 - Azure OpenAI

Microsoft が AI Red Teaming にアプローチする方法

より安全な AI の未来を構築する Microsoft AI Red Team

赤いチームは、AI を安全に保つためにハッカーのように考える