Share via


O que há de novo na Segurança de Conteúdo do Azure AI

Saiba o que há de novo no serviço. Esses itens podem ser notas de versão, vídeos, postagens de blog e outros tipos de informações. Marque esta página como favorito para se manter atualizado com novos recursos, aprimoramentos, correções e atualizações de documentação.

Março de 2024

Pré-visualização pública do Prompt Shields

Anteriormente conhecido como deteção de risco de jailbreak, esse recurso atualizado deteta ataques de injeção de prompt do usuário, nos quais os usuários deliberadamente exploram vulnerabilidades do sistema para provocar comportamento não autorizado a partir de um modelo de linguagem grande. O Prompt Shields analisa ataques diretos de prompt do usuário e ataques indiretos incorporados em documentos ou imagens de entrada. Consulte Prompt Shields para saber mais.

Pré-visualização pública da deteção de aterramento

A API de deteção de aterramento deteta se as respostas de texto de grandes modelos de linguagem (LLMs) estão fundamentadas nos materiais de origem fornecidos pelos usuários. Ungroundedness refere-se a casos em que os LLMs produzem informações que não são factuais ou imprecisas a partir do que estava presente nos materiais de origem. Consulte Deteção de aterramento para saber mais.

Janeiro de 2024

SDK de Segurança de Conteúdo GA

O serviço Azure AI Content Safety agora está disponível em geral por meio dos seguintes SDKs de biblioteca de cliente:

Importante

As versões de visualização pública dos SDKs de Segurança de Conteúdo do Azure AI serão preteridas até 31 de março de 2024. Por favor, atualize seus aplicativos para usar as versões GA.

Novembro de 2023

Risco de jailbreak e deteção de material protegido (visualização)

As novas APIs de deteção de risco de jailbreak e deteção de material protegido permitem mitigar alguns dos riscos ao usar IA generativa.

  • A deteção de risco de jailbreak verifica o texto em busca do risco de um ataque de jailbreak em um modelo de linguagem grande. Início rápido
  • A deteção de texto de material protegido verifica o texto gerado por IA em busca de conteúdo de texto conhecido (por exemplo, letras de músicas, artigos, receitas, conteúdo da Web selecionado). Início rápido

O risco de jailbreak e a deteção de material protegido estão disponíveis nas regiões Azure Leste dos EUA e Europa Ocidental.

Outubro de 2023

A Segurança de Conteúdo do Azure AI está disponível em geral (GA)

O serviço Azure AI Content Safety agora está disponível em geral como um serviço de nuvem.

  • O serviço está disponível em muitas outras regiões do Azure. Consulte a Visão geral para obter uma lista.
  • Os formatos de retorno das APIs de análise foram alterados. Consulte os Guias de início rápido para obter os exemplos mais recentes.
  • Os nomes e formatos de retorno de várias APIs foram alterados. Consulte o Guia de migração para obter uma lista completa das alterações mais recentes. Outros guias e guias de início rápido agora refletem a versão GA.

SDKs Java e JavaScript do Azure AI Content Safety

O serviço Azure AI Content Safety agora está disponível por meio de SDKs Java e JavaScript. Os SDKs estão disponíveis no Maven e npm. Siga um guia de início rápido para começar.

Julho de 2023

Azure AI Content Safety C# SDK

O serviço Azure AI Content Safety agora está disponível por meio de um SDK do C#. O SDK está disponível no NuGet. Siga um guia de início rápido para começar.

Maio de 2023

Visualização pública do Azure AI Content Safety

O Azure AI Content Safety deteta material potencialmente ofensivo, arriscado ou indesejável. Este serviço oferece modelos de texto e imagem de última geração que detetam conteúdo problemático. O Azure AI Content Safety ajuda a tornar os aplicativos e serviços mais seguros contra conteúdo prejudicial gerado pelo usuário e gerado por IA. Siga um guia de início rápido para começar.

Atualizações dos serviços de IA do Azure

Anúncios de atualização do Azure para serviços de IA do Azure