Operar uma solução de IA generativa responsável
Depois de identificar possíveis danos, desenvolver uma maneira de medir a sua presença e implementar mitigações para eles em sua solução, você pode se preparar para liberar a sua solução. Antes de fazer isso, há algumas considerações que ajudam você a garantir o sucesso do lançamento e das operações posteriores.
Fazer revisões de pré-lançamento
Antes de lançar uma solução de IA generativa, identifique os diferentes requisitos de conformidade na organização e no setor e verifique se as equipes apropriadas têm a oportunidade de examinar o sistema e sua documentação. As revisões comuns de conformidade incluem:
- Ofício
- Privacidade
- Segurança
- Acessibilidade
Lançar e operar a solução
Um lançamento bem-sucedido requer algum planejamento e preparação. Considere as seguintes diretrizes:
- Crie um plano de entrega em fases que permita lançar a solução inicialmente para um grupo restrito de usuários. Essa abordagem permite que você colete comentários e identifique problemas antes de lançar para um público mais amplo.
- Crie um plano de resposta a incidentes que inclua estimativas do tempo necessário para responder a incidentes imprevistos.
- Crie um plano de reversão que defina as etapas para reverter a solução para um estado anterior se ocorrer um incidente.
- Implemente a capacidade de bloquear imediatamente respostas prejudiciais do sistema quando elas forem descobertas.
- Implemente uma funcionalidade para bloquear usuários, aplicativos ou endereços IP do cliente específicos em caso de uso indevido do sistema.
- Implemente uma maneira de os usuários fornecerem comentários e relatarem problemas. Especificamente, permita que os usuários indiquem se o conteúdo gerado é "impreciso", "incompleto", "prejudicial", "ofensivo" ou problemático de alguma maneira.
- Acompanhe os dados de telemetria que permitem determinar a satisfação do usuário e identificar lacunas funcionais ou desafios de usabilidade. A telemetria coletada deve estar em conformidade com as leis de privacidade e com as políticas e os compromissos de sua organização com a privacidade do usuário.
Utilizar a Segurança de Conteúdo de IA do Azure
Vários recursos de IA do Azure fornecem análise interna do conteúdo com o qual trabalham, incluindo Linguagem, Visão e OpenAI do Azure usando filtros de conteúdo.
A Segurança de Conteúdo de IA do Azure fornece mais recursos com foco em manter a IA e os copilotos seguros contra riscos. Esses recursos incluem a detecção de linguagem inadequada ou ofensiva, tanto da entrada quanto da geração, e a detecção de entradas arriscadas ou inadequadas.
Os recursos na Segurança de Conteúdo de IA do Azure incluem:
Recurso | Funcionalidade |
---|---|
Proteções de prompt | Verifica o risco de ataques de entrada do usuário em modelos de linguagem |
Detecção de fundamentação | Detecta se as respostas de texto estão fundamentadas no conteúdo de origem de um usuário |
Detecção de material protegido | Verifica se há conteúdo protegido por direitos autorais conhecido |
Categorias personalizadas | Definir categorias personalizadas para qualquer padrão novo ou emergente |
Detalhes e guias de início rápido para usar a Segurança de Conteúdo de IA do Azure podem ser encontrados nas páginas de documentação do serviço.