Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry.
Дополнительные сведения о новом портале.
Замечание
Ссылки в этой статье могут открывать содержимое в новой документации Майкрософт Foundry вместо классической документации Foundry, которую вы просматриваете в данный момент.
Это важно
Элементы, обозначенные в этой статье как (предварительная версия), сейчас предлагаются в общедоступной предварительной версии. Эта предварительная версия предоставляется без соглашения об уровне обслуживания, и мы не рекомендуем ее для рабочих нагрузок. Некоторые функции могут не поддерживаться или их возможности могут быть ограничены. Дополнительные сведения см. в разделе Supplemental Terms of Use for Microsoft Azure Previews.
В этой статье описаны возможности безопасности содержимого для моделей из каталога моделей, развернутых с помощью бессерверных развертываний API.
Параметры фильтра содержимого по умолчанию
Azure ИИ использует конфигурацию по умолчанию для фильтров содержимого Безопасность содержимого ИИ Azure для обнаружения вредного контента в четырех категориях: ненависть, справедливость, самоповреждение, сексуальность и насилие, для моделей, развернутых через бессерверные API. Дополнительные сведения о фильтрации содержимого см. в статье "Общие сведения о категориях вреда".
Конфигурация фильтрации содержимого по умолчанию для текстовых моделей настроена для фильтрации по порогу средней серьезности, отфильтровав любое обнаруженное содержимое на этом уровне или выше. Для моделей изображений конфигурация фильтрации содержимого по умолчанию устанавливается на низком пороге конфигурации, фильтруя на этом уровне или выше. Для моделей, развернутых с помощью Майкрософт Foundry Models, можно создать настраиваемые фильтры, выбрав вкладку Фильтры контента на странице Ограждения и элементы управления портала Foundry.
Подсказка
Фильтрация содержимого недоступна для определенных типов моделей, развернутых с помощью бессерверных развертываний API. Эти типы моделей включают модели встраивания и модели временных рядов.
Фильтрация содержимого выполняется синхронно, когда служба обрабатывает запросы на создание контента. С вас могут взимать плату отдельно в соответствии с тарифами Безопасность содержимого ИИ Azure за такое использование. Вы можете отключить фильтрацию содержимого для отдельных бессерверных конечных точек:
- При первом развертывании языковой модели
- Позже, выбрав переключатель фильтрации содержимого на странице сведений о развертывании
Предположим, вы решили использовать API, отличный от API Model Inference API для работы с моделью, развернутой с помощью развертывания бессерверного API. В такой ситуации фильтрация содержимого (предварительная версия) не включена, если она не реализуется отдельно с помощью Безопасность содержимого ИИ Azure. Сведения о начале работы с Безопасность содержимого ИИ Azure см. в статье Quickstart: анализ текстового содержимого. Вы подвергаете пользователей большему риску столкнуться с вредным содержимым, если не используете фильтрацию контента (предварительный просмотр) при работе с моделями, развернутыми с помощью бессерверных развертываний API.
Общие сведения о категориях вреда
Категории вреда
| Категория | Description | Термин API |
|---|---|---|
| Ненависть и справедливость | Ненависть и вред относятся к любому содержимому, которое атакует или использует дискриминационный язык по отношению к человеку или идентификационной группе на основе определенных характеристик этих групп. Это включает в себя, но не ограничивается:
|
Hate |
| Половой | Сексуальный описывает язык, связанный с анатомическими органами и гениталиями, романтическими отношениями и сексуальными актами, действия, изображаемые в эротических или ласковых терминах, в том числе те, которые изображаются как нападение или принудительный сексуальный насильственный акт против воли человека. Это включает в себя, но не ограничивается:
|
Sexual |
| Насилие | Насилие описывает терминологию, связанную с физическими действиями, предназначенными для того, чтобы ранить или убить кого-либо или что-либо; описывает оружие, пистолеты и связанные с ними объекты. Это включает в себя, но не ограничивается:
|
Violence |
| Самоповредение | Самоповреждение описывает речь о физических действиях, направленных на намеренное причинение боли, травмы, повреждения тела или суицида. Это включает в себя, но не ограничивается:
|
SelfHarm |
| Соблюдение задач | Помогает обеспечить согласованное поведение агентов ИИ в соответствии с инструкциями пользователя и целями задач. Он определяет несоответствия, такие как несогласованные вызовы инструментов, неправильные входные данные или выходные данные средства относительно намерения пользователя, а также несоответствия между ответами и входными данными клиента. |
Уровни серьезности
| Уровень | Description |
|---|---|
| Безопасно | Содержимое может быть связано с насилием, самовосхищением, сексуальными или ненавистными категориями. Однако термины используются в целом в журналистских, научных, медицинских и аналогичных профессиональных контекстах, которые подходят для большинства аудиторий. |
| Low | Содержимое, которое выражает предрассудки, суждение или мнения, включает в себя оскорбительное использование языка, стереотипы, сценарии использования, изучающие вымышленный мир (например, игры, литература), и изображения с низкой интенсивностью. |
| Средняя | Содержимое, использующее оскорбительный, уничижительный, издевательский, запугивающий язык в отношении определенных идентификационных групп, включает изображения поиска и выполнения вредных инструкций, фантазий, восхваления, поощрения вреда средней степени интенсивности. |
| High | Содержимое, демонстрирующее явные и серьезные вредные инструкции, действия, ущерб или злоупотребление; включает одобрение, прославление или продвижение серьезных вредных актов, крайних или незаконных форм вреда, радикализации или неконсенсуального обмена властью или злоупотреблений. |
Как вычисляются расходы
Сведения об [информация о ценах] можно просмотреть по ссылке Безопасность содержимого ИИ Azure. Плата взимается, когда Безопасность содержимого ИИ Azure валидирует запрос или его завершение. Если Безопасность содержимого ИИ Azure блокирует запрос или завершение, вы будете оплачивать как за оценку содержимого, так и за вызовы для получения выводов.