Operar uma solução de IA de geração responsável

Concluído

Depois de identificar possíveis danos, desenvolver uma maneira de medir sua presença e implementar mitigações para eles em sua solução, você pode se preparar para liberar sua solução. Antes de fazer isso, há algumas considerações que ajudam a garantir uma versão bem-sucedida e operações subsequentes.

Concluir revisões de pré-lançamento

Antes de lançar uma solução de IA gerativa, identifique os vários requisitos de conformidade em sua organização e setor e verifique se as equipes apropriadas têm a oportunidade de examinar o sistema e sua documentação. As revisões de conformidade comuns incluem:

  • Jurídico
  • Privacidade
  • Segurança
  • Acessibilidade

Liberar e operar a solução

Uma versão bem-sucedida requer algum planejamento e preparação. Considere as seguintes diretrizes:

  • Crie um plano de entrega em fases que permite que você libere a solução inicialmente para um grupo restrito de usuários. Essa abordagem permite que você colete comentários e identifique problemas antes de liberar para um público mais amplo.
  • Crie um plano de resposta a incidentes que inclua estimativas do tempo necessário para responder a incidentes inesperados.
  • Crie um plano de reversão que define as etapas para reverter a solução para um estado anterior se ocorrer um incidente.
  • Implemente a capacidade de bloquear imediatamente as respostas prejudiciais do sistema quando elas forem descobertas.
  • Implemente um recurso para bloquear usuários, aplicativos ou endereços IP do cliente específicos em caso de uso indevido do sistema.
  • Implemente uma maneira de os usuários fornecerem comentários e relatarem problemas. Em particular, permitir que os usuários relatem o conteúdo gerado como "impreciso", "incompleto", "prejudicial", "ofensivo" ou problemático.
  • Acompanhe os dados de telemetria que permitem determinar a satisfação do usuário e identificar lacunas funcionais ou desafios de usabilidade. A telemetria coletada deve estar em conformidade com as leis de privacidade e as políticas e compromissos da sua própria organização com a privacidade do usuário.

Utilizar a segurança de conteúdo de IA do Azure

Vários recursos de IA do Azure fornecem análise interna do conteúdo com o qual trabalham, incluindo Linguagem, Visão e OpenAI do Azure usando filtros de conteúdo.

A Segurança de Conteúdo de IA do Azure fornece mais recursos com foco em manter a IA e os copilots seguros contra riscos. Esses recursos incluem a detecção de linguagem inadequada ou ofensiva, tanto da entrada quanto da geração, e a detecção de entradas arriscadas ou inadequadas.

Os recursos no Azure AI Content Safety incluem:

Característica Funcionalidade
Proteções de prompt Verifica o risco de ataques de entrada do usuário em modelos de linguagem
Detecção de fundamentação Detecta se as respostas de texto estão fundamentadas no conteúdo de origem de um usuário
Detecção de material protegido Verifica se há conteúdo protegido por direitos autorais conhecido
Categorias personalizadas Definir categorias personalizadas para qualquer padrão novo ou emergente

Detalhes e guias de início rápido para usar a Segurança de Conteúdo de IA do Azure podem ser encontrados nas páginas de documentação do para o serviço.