Operar uma solução de IA generativa responsável

Concluído

Depois de identificar possíveis danos, desenvolver uma maneira de medir a sua presença e implementar mitigações para eles em sua solução, você pode se preparar para liberar a sua solução. Antes de fazer isso, há algumas considerações que ajudam você a garantir o sucesso do lançamento e das operações posteriores.

Fazer revisões de pré-lançamento

Antes de lançar uma solução de IA generativa, identifique os diferentes requisitos de conformidade na organização e no setor e verifique se as equipes apropriadas têm a oportunidade de examinar o sistema e sua documentação. As revisões comuns de conformidade incluem:

  • Ofício
  • Privacidade
  • Segurança
  • Acessibilidade

Lançar e operar a solução

Um lançamento bem-sucedido requer algum planejamento e preparação. Considere as seguintes diretrizes:

  • Crie um plano de entrega em fases que permita lançar a solução inicialmente para um grupo restrito de usuários. Essa abordagem permite que você colete comentários e identifique problemas antes de lançar para um público mais amplo.
  • Crie um plano de resposta a incidentes que inclua estimativas do tempo necessário para responder a incidentes imprevistos.
  • Crie um plano de reversão que defina as etapas para reverter a solução para um estado anterior se ocorrer um incidente.
  • Implemente a capacidade de bloquear imediatamente respostas prejudiciais do sistema quando elas forem descobertas.
  • Implemente uma funcionalidade para bloquear usuários, aplicativos ou endereços IP do cliente específicos em caso de uso indevido do sistema.
  • Implemente uma maneira de os usuários fornecerem comentários e relatarem problemas. Especificamente, permita que os usuários indiquem se o conteúdo gerado é "impreciso", "incompleto", "prejudicial", "ofensivo" ou problemático de alguma maneira.
  • Acompanhe os dados de telemetria que permitem determinar a satisfação do usuário e identificar lacunas funcionais ou desafios de usabilidade. A telemetria coletada deve estar em conformidade com as leis de privacidade e com as políticas e os compromissos de sua organização com a privacidade do usuário.

Utilizar a Segurança de Conteúdo de IA do Azure

Vários recursos de IA do Azure fornecem análise interna do conteúdo com o qual trabalham, incluindo Linguagem, Visão e OpenAI do Azure usando filtros de conteúdo.

A Segurança de Conteúdo de IA do Azure fornece mais recursos com foco em manter a IA e os copilotos seguros contra riscos. Esses recursos incluem a detecção de linguagem inadequada ou ofensiva, tanto da entrada quanto da geração, e a detecção de entradas arriscadas ou inadequadas.

Os recursos na Segurança de Conteúdo de IA do Azure incluem:

Recurso Funcionalidade
Proteções de prompt Verifica o risco de ataques de entrada do usuário em modelos de linguagem
Detecção de fundamentação Detecta se as respostas de texto estão fundamentadas no conteúdo de origem de um usuário
Detecção de material protegido Verifica se há conteúdo protegido por direitos autorais conhecido
Categorias personalizadas Definir categorias personalizadas para qualquer padrão novo ou emergente

Detalhes e guias de início rápido para usar a Segurança de Conteúdo de IA do Azure podem ser encontrados nas páginas de documentação do serviço.