Documentação do Content Moderator

A API do Azure Content Moderator verifica o conteúdo de texto, imagem e vídeo em busca de material potencialmente ofensivo, arriscado ou indesejável. O Moderador de Conteúdo será preterido em fevereiro de 2024 e será desativado em fevereiro de 2027. Ele está sendo substituído pelo Azure AI Content Safety, que oferece recursos avançados de IA e desempenho aprimorado. O Azure AI Content Safety é uma solução abrangente projetada para detetar conteúdo prejudicial gerado pelo usuário e gerado por IA em aplicativos e serviços. O Azure AI Content Safety é adequado para muitos cenários, como mercados online, empresas de jogos, plataformas de mensagens sociais, empresas de mídia corporativa e provedores de soluções educacionais K-12.

Segurança dos Conteúdos no Azure AI

Começar Agora

Analisar conteúdo de imagem

Conceito

Início Rápido

Manual de Instruções

Utilizar listas de imagens personalizadas

Início Rápido

Manual de Instruções

Analisar conteúdo de texto

Conceito

Início Rápido

Manual de Instruções

Utilizar listas de termos personalizados

Início Rápido

Manual de Instruções

Analisar conteúdo de vídeo

Manual de Instruções

video

Ajuda e comentários

Referência