Resumo
A proliferação do conteúdo gerado pelo usuário torna quase impossível para os moderadores humanos gerenciar as plataformas online com eficácia. No entanto, à medida que a quantidade de conteúdo gerado pelo usuário aumenta, o mesmo ocorre com a importância da segurança online.
O Microsoft Foundry Content Safety usa modelos de IA para detectar automaticamente linguagem violenta, sexual, automutilação ou odiosa em tempo real. Ela aloca um nível de gravidade para que os moderadores humanos possam se concentrar nos casos de alta prioridade, além de serem expostos a uma quantidade menor de conteúdo perturbador. O Foundry Content Safety inclui recursos para moderar o material gerado por pessoas e gerado por IA.
Neste módulo, você viu como os recursos do Foundry Content Safety podem ajudar marcas de comércio eletrônico, empresas de jogos e educadores a fornecer espaços mais seguros para os usuários.