Compartilhar via


Novidades da Segurança de Conteúdo de IA do Azure

Conheça o que há de novo no serviço. Esses itens podem ser notas de versão, vídeos, postagens no blog e outros tipos de informações. Adicione esta página aos favoritos para se manter atualizado sobre os novos recursos, os aprimoramentos, as correções e as atualizações da documentação.

Outubro de 2024

Futuras desativações

Para se alinhar com o controle de versão de Segurança de Conteúdo e as políticas de gerenciamento do ciclo de vida, as versões a seguir estão agendadas para serem preteridas:

  • A partir de 28 de janeiro de 2024: todas as versões, exceto 2024-09-01, 2024-09-15-preview e 2024-09-30-preview serão preteridas e não terão mais suporte. Incentivamos os usuários a fazer a transição para as versões mais recentes disponíveis para continuar recebendo atualizações e suporte completo. Se você tiver dúvidas sobre esse processo ou precisar de assistência com a transição, entre em contato com nossa equipe de suporte.

Setembro de 2024

Análise multimodal (versão prévia)

A API Multimodal analisa materiais que possuem conteúdos de imagem e de texto para ajudar a tornar aplicativos e serviços mais seguros contra conteúdos prejudiciais gerados por usuários ou por IA. A análise conjunta de uma imagem e seu conteúdo textual associado preserva o contexto e oferece uma compreensão mais completa do conteúdo. Siga o guia de início rápido para obter uma introdução.

Detecção de material protegido para código (versão prévia)

A API de código de material protegido sinaliza conteúdos de código protegido (vindo de repositórios conhecidos do GitHub, incluindo bibliotecas de software, código-fonte, algoritmos e outros conteúdos proprietários de programação) que podem ser gerados por grandes modelos de linguagem. Siga o guia de início rápido para obter uma introdução.

Cuidado

O verificador/indexador de código do serviço de segurança de conteúdo só está em dia até 6 de novembro de 2021. O código adicionado ao GitHub após essa data não será detectado. Use seu próprio julgamento ao utilizar o material protegido para códigos a fim de detectar corpos de código recentes.

Correção de fundamentação (versão prévia)

A API de detecção de fundamentação possui um recurso de correção que ajusta automaticamente qualquer ausência de fundamento detectada no texto, com base nas fontes de fundamentação fornecidas. Quando esse recurso está habilitado, a resposta inclui um campo corrected Text que apresenta o texto corrigido de acordo com essas mesmas fontes. Siga o guia de início rápido para obter uma introdução.

Agosto de 2024

Os novos recursos estão em disponibilidade geral

A API do Prompt Shields e a API de detecção de fundamentação agora estão em GA (disponibilidade geral). Siga um guia de início rápido para experimentá-los.

Julho de 2024

Versão preliminar pública de API de categorias personalizadas (padrão)

A API de categorias personalizadas (padrão) permite que você crie e treine suas próprias categorias de conteúdo personalizado e examine o texto em busca de correspondências. Consulte Categorias personalizadas para saber mais.

Maio de 2024

Versão preliminar pública de API de categorias personalizadas (rápida)

A API de categorias personalizadas (rápida) permite definir rapidamente padrões de conteúdo prejudiciais emergentes e examinar correspondências entre texto e imagens. Consulte Categorias personalizadas para saber mais.

Março de 2024

Visualização pública do Prompt Shields

Anteriormente conhecido como Detecção de risco de jailbreak, esse recurso atualizado detecta ataques de prompt, nos quais os usuários exploram deliberadamente vulnerabilidades do sistema para provocar comportamento não autorizado de um modelo de linguagem grande. O Prompt Shields analisa ataques diretos e ataques indiretos de prompt de usuário inseridos em documentos ou imagens de entrada. Consulte o Prompt Shields para saber mais.

Visualização pública de detecção de fundamentação

A API de detecção de fundamentação detecta se as respostas de texto de LLMs (grandes modelos de linguagem) estão fundamentadas nos materiais de origem fornecidos pelos usuários. A falta de fundamentação descreve casos em que os LLMs produzem informações que não são factuais ou são imprecisas em relação ao que estava presente nos materiais de origem. Consulte Detecção de fundamentação para saber mais.

Janeiro de 2024

Disponibilidade geral do SDK da Segurança de Conteúdo

O serviço de Segurança de Conteúdo de IA do Azure agora está em disponibilidade geral por meio dos seguintes SDKs da biblioteca de clientes:

Importante

As versões da versão prévia pública dos SDKs de Segurança de Conteúdo da IA do Azure serão preteridas até 31 de março de 2024. Atualize seus aplicativos para usar as versões de GA.

novembrod e 2023

Risco de Jailbreak e Detecção de material protegido (versão prévia)

A nova detecção de risco Jailbreak e as APIs de detecção de material protegido permitem atenuar alguns dos riscos ao usar IA generativa.

  • Verifica o texto quanto ao risco de um ataque jailbreak em um modelo de linguagem grande. Início rápido
  • Verifica o texto gerado por IA em busca de conteúdo de texto conhecido (por exemplo, letras de música, artigos, receitas, conteúdo da Web selecionado). Início rápido

O risco de Jailbreak e a detecção de material protegido só estão disponíveis em regiões selecionadas. Confira a Disponibilidade de região.

Outubro de 2023

A Segurança de Conteúdo de IA do Azure está em disponibilidade geral (GA)

O serviço de Segurança de Conteúdo de IA do Azure agora está disponível como um serviço de nuvem.

  • O serviço está disponível em muitas outras regiões do Azure. Confira a visão geral para ver uma lista.
  • Os formatos de retorno das APIs de Análise foram alterados. Confira os guias de início rápido para obter os exemplos mais recentes.
  • Os nomes e formatos de retorno de várias outras APIs foram alterados. Confira o guia de migração para obter uma lista completa de alterações interruptivas. Outros guias e guias de início rápido agora refletem a versão de GA.

SDKs JavaScript e Java de Segurança de Conteúdo de IA do Azure

O serviço de Segurança de Conteúdo de IA do Azure agora está disponível por meio de SDKs Java e JavaScript. Os SDKs estão disponíveis no Maven e no npm, respectivamente. Siga nosso início rápido para começar.

Julho de 2023

SDK do C# de Segurança de Conteúdo de IA do Azure

O serviço de Segurança de Conteúdo de IA do Azure agora está disponível por meio de um SDK do C#. O SDK está disponível em NuGet. Siga nosso início rápido para começar.

Maio de 2023

Versão preliminar pública da Segurança de Conteúdo de IA do Azure

O Azure AI Content Safety detecta material potencialmente ofensivo, arriscado ou indesejável. Esse serviço oferece modelos de texto e imagem de última geração que detectam conteúdo problemático. O Azure AI Content Safety ajuda a tornar aplicativos e serviços mais seguros contra conteúdo prejudicial gerado pelo usuário e gerado por IA. Siga nosso início rápido para começar.

Atualizações dos serviços de IA do Azure

Comunicados de atualização do Azure para os serviços de IA do Azure