Поделиться через


Что такое Azure Content Moderator?

Внимание

Azure Content Moderator устарел по состоянию на февраль 2024 г. и будет прекращен к февралю 2027 г. Она заменена безопасностью содержимого ИИ Azure, которая предлагает расширенные функции ИИ и улучшенную производительность.

Безопасность содержимого ИИ Azure — это комплексное решение, предназначенное для обнаружения вредоносного пользовательского и искусственного интеллекта, созданного содержимым в приложениях и службах. Безопасность содержимого ИИ Azure подходит для многих сценариев, таких как интернет-магазины, игровые компании, платформы социальных сообщений, корпоративные медиа-компании и поставщики решений для образования K-12. Ниже приведен обзор ее функций и возможностей.

  • API обнаружения текста и изображений: сканировать текст и изображения для сексуального содержимого, насилия, ненависти и самоповредения с несколькими уровнями серьезности.
  • Content Safety Studio: онлайн-инструмент, предназначенный для обработки потенциально оскорбительных, рискованных или нежелательных содержимого с помощью наших последних моделей машинного обучения режим палатки. Он предоставляет шаблоны и настраиваемые рабочие процессы, позволяющие пользователям создавать собственные системы con режим палатки ration.
  • Поддержка языка: Безопасность содержимого ИИ Azure поддерживает более 100 языков и специально обучается на английском, немецком, японском, испанском, французском, итальянском, португальском и китайском языках.

Безопасность содержимого ИИ Azure предоставляет надежное и гибкое решение для ваших потребностей в режим палатки. Переключившись с Content Moderator на безопасность содержимого ИИ Azure, вы можете воспользоваться новейшими инструментами и технологиями, чтобы гарантировать, что содержимое всегда модерировано до ваших точных спецификаций.

Узнайте больше о безопасности содержимого ИИ Azure и узнайте, как она может повысить уровень стратегии кон режим палатки терации.

Azure Content Moderator — это служба ИИ, позволяющая управлять контентом, который может носить оскорбительный характер или представлять опасность либо нежелательным контентом иного рода. Она включает службу модерации контента на основе ИИ, которая позволяет проверять текст, изображения и видео, а также автоматически применять флаги содержимого.

Возможно, вам потребуется встроить в свое приложение программное обеспечение для фильтрации контента, чтобы поддерживать соответствие нормативным требованиям или организовать надлежащую среду для пользователей.

Эта документация включает статьи следующих типов:

Для более структурированного подхода следуйте модулю Обучения для Content Moderator.

Где используется

Ниже приведены несколько сценариев, в которых разработчику программного обеспечения или команде требуется служба модерации контента:

  • интернет-магазины с модерацией каталогов продукции и создаваемого пользователями содержимого;
  • компании-разработчики игр, которые модерируют создаваемые пользователями игровые артефакты и чаты;
  • социальные платформы для обмена сообщениями с модерацией изображений, текста и видео, добавляемых пользователями;
  • корпоративные медиакомпании, внедряющие централизованную модерацию своего содержимого;
  • поставщики образовательных решений K-12, фильтрующие неуместное содержимое для учащихся и преподавателей.

Внимание

Вы не можете использовать Content Moderator для проверки изображений на наличие сцен противозаконной эксплуатации детей. При этом уполномоченные организации могут использовать для этих целей облачную службу PhotoDNA.

Компоненты

Служба Content Moderator состоит из нескольких API веб-службы, доступных через вызовы REST и пакет SDK для .NET.

API модерации

В службу Content Moderator входят API модерации, которые проверяют содержимое на наличие потенциально неприемлемых или нежелательных материалов.

Блок-схема API модерации в Content Moderator

Различные типы API модерации описаны в следующей таблице.

Группа API Description
Модерация текста Просматривает текст на наличие оскорбительного содержимого, содержимого сексуального или непристойного характера, содержимого с ненормативной лексикой и персональными данными.
Пользовательские списки терминов Проверяет текст с использованием настраиваемого списка терминов наряду со встроенным списком. Используйте пользовательские списки для блокировки или разрешения содержимого в соответствии с собственными политиками содержимого.
Модерация изображений Проверяет изображения на наличие непристойного содержимого или содержимого для взрослых, выявляет в изображениях текст с помощью функции распознавания текста, а также распознает лица.
Пользовательские списки изображений Проверяет изображения с использованием пользовательского списка изображений. Используйте пользовательский список изображений для фильтрации экземпляров часто встречающегося содержимого, которое вы не хотите классифицировать еще раз.
Модерация видео Проверяет видео на наличие непристойного содержимого или содержимого для взрослых и возвращает метки времени для указанного содержимого.

Конфиденциальность и безопасность данных

Как и во всех службах ИИ Azure, разработчики, использующие службу Content Moderator, должны учитывать политики Майкрософт по данным клиентов. Дополнительные сведения см. на странице служб ИИ Azure в Центре управления безопасностью Майкрософт.

Следующие шаги