Operar uma solução de IA de geração responsável
Depois de identificar possíveis danos, desenvolver uma maneira de medir sua presença e implementar mitigações para eles em sua solução, você pode se preparar para liberar sua solução. Antes de fazer isso, há algumas considerações que ajudam a garantir uma versão bem-sucedida e operações subsequentes.
Concluir revisões de pré-lançamento
Antes de lançar uma solução de IA gerativa, identifique os vários requisitos de conformidade em sua organização e setor e verifique se as equipes apropriadas têm a oportunidade de examinar o sistema e sua documentação. As revisões de conformidade comuns incluem:
- Jurídico
- Privacidade
- Segurança
- Acessibilidade
Liberar e operar a solução
Uma versão bem-sucedida requer algum planejamento e preparação. Considere as seguintes diretrizes:
- Crie um plano de entrega em fases que permite que você libere a solução inicialmente para um grupo restrito de usuários. Essa abordagem permite que você colete comentários e identifique problemas antes de liberar para um público mais amplo.
- Crie um plano de resposta a incidentes que inclua estimativas do tempo necessário para responder a incidentes inesperados.
- Crie um plano de reversão que define as etapas para reverter a solução para um estado anterior se ocorrer um incidente.
- Implemente a capacidade de bloquear imediatamente as respostas prejudiciais do sistema quando elas forem descobertas.
- Implemente um recurso para bloquear usuários, aplicativos ou endereços IP do cliente específicos em caso de uso indevido do sistema.
- Implemente uma maneira de os usuários fornecerem comentários e relatarem problemas. Em particular, permitir que os usuários relatem o conteúdo gerado como "impreciso", "incompleto", "prejudicial", "ofensivo" ou problemático.
- Acompanhe os dados de telemetria que permitem determinar a satisfação do usuário e identificar lacunas funcionais ou desafios de usabilidade. A telemetria coletada deve estar em conformidade com as leis de privacidade e as políticas e compromissos da sua própria organização com a privacidade do usuário.
Utilizar a segurança de conteúdo de IA do Azure
Vários recursos de IA do Azure fornecem análise interna do conteúdo com o qual trabalham, incluindo Linguagem, Visão e OpenAI do Azure usando filtros de conteúdo.
A Segurança de Conteúdo de IA do Azure fornece mais recursos com foco em manter a IA e os copilots seguros contra riscos. Esses recursos incluem a detecção de linguagem inadequada ou ofensiva, tanto da entrada quanto da geração, e a detecção de entradas arriscadas ou inadequadas.
Os recursos no Azure AI Content Safety incluem:
Característica | Funcionalidade |
---|---|
Proteções de prompt | Verifica o risco de ataques de entrada do usuário em modelos de linguagem |
Detecção de fundamentação | Detecta se as respostas de texto estão fundamentadas no conteúdo de origem de um usuário |
Detecção de material protegido | Verifica se há conteúdo protegido por direitos autorais conhecido |
Categorias personalizadas | Definir categorias personalizadas para qualquer padrão novo ou emergente |
Detalhes e guias de início rápido para usar a Segurança de Conteúdo de IA do Azure podem ser encontrados nas páginas de documentação do para o serviço.