トレーニング
モジュール
Azure AI Content Safety でコンテンツをモデレートし、有害性を検出する - Training
Azure AI Content Safety でコンテンツ モデレーション システムを選択して構築する方法について説明します。
このブラウザーはサポートされなくなりました。
Microsoft Edge にアップグレードすると、最新の機能、セキュリティ更新プログラム、およびテクニカル サポートを利用できます。
Q&A の倫理規定では、サイト コンテンツの標準を定めています。 モデレーターは、サイトを正常に保ち、ユーザーが必要な回答をすぐに見つけられるように、これらの標準を満たしていないコンテンツを削除することができます。
重要
不明瞭または不完全と思われる回答を削除する代わりに、コメントで回答作成者に、より詳細な情報または不明点を明確にするよう依頼することができます。 そうすることで、知識と時間を共有してくれるユーザーに感謝や尊敬を示すことができます。 もう 1 つのオプションは、別の回答を知っている場合に、それを共有することです。
モデレーターは、次の手順に従って、Q&A の倫理規定に反する質問を削除します。
モデレーターは、次の手順に従って、Q&A の倫理規定に反する回答を削除します。
モデレーターは、次の手順に従って、Q&A の倫理規定に反する質問を削除します。
コンテンツ作成者は、削除された自身の質問のみを表示できます。 この質問の最初には "削除済み" ラベルが付いています。 他のユーザーの質問の場合は、コンテンツが削除されたという標準メッセージが表示されます。
モデレーターは、すべての削除済みコンテンツを表示できます。 さらに、モデレーターは、モデレーション キューの [削除済み] タブにアクセスすることで、削除されたコンテンツの完全な一覧を確認できます。
トレーニング
モジュール
Azure AI Content Safety でコンテンツをモデレートし、有害性を検出する - Training
Azure AI Content Safety でコンテンツ モデレーション システムを選択して構築する方法について説明します。