Orientação para integração e uso responsável do Personalizador

Importante

A partir de 20 de setembro de 2023, você não poderá criar novos recursos do Personalizador. O serviço de Personalizador será aposentado no dia 1º de outubro de 2026.

A Microsoft trabalha para ajudar os clientes a desenvolver e implantar soluções de forma responsável usando o Azure AI Personalizer. Nossa abordagem baseada em princípios defende o arbítrio pessoal e a dignidade, considerando o sistema de IA:

  • Equidade, confiabilidade e segurança.
  • Privacidade e segurança.
  • Inclusão.
  • Transparência.
  • Responsabilidade humana.

Estas considerações refletem o nosso compromisso com o desenvolvimento de uma IA responsável.

Orientações gerais para a integração e os princípios de utilização responsável

Quando você se preparar para integrar e usar de forma responsável produtos ou recursos baseados em IA, as seguintes atividades ajudarão a prepará-lo para o sucesso:

  • Entenda o que ele pode fazer. Avalie completamente o potencial do Personalizer para entender suas capacidades e limitações. Entenda como ele se comportará em seu cenário e contexto específicos, testando-o exaustivamente com condições e dados da vida real.

  • Respeite o direito à privacidade dos indivíduos. Recolher apenas dados e informações de indivíduos para fins legais e justificáveis. Utilize apenas dados e informações que tenha consentimento para utilizar para este fim.

  • Obter revisão legal. Obtenha aconselhamento jurídico adequado para analisar o Personalizer e como o está a utilizar na sua solução, particularmente se o vai utilizar em aplicações sensíveis ou de alto risco. Entenda em quais restrições você pode precisar trabalhar e sua responsabilidade de resolver quaisquer problemas que possam surgir no futuro.

  • Tenha um humano no circuito. Inclua a supervisão humana como uma área padrão consistente a ser explorada. Garanta a supervisão humana constante do produto ou recurso alimentado por IA. Manter o papel dos seres humanos na tomada de decisões. Certifique-se de que você pode ter intervenção humana em tempo real na solução para prevenir danos e gerenciar situações em que o sistema de IA não funciona como esperado.

  • Construa confiança com as partes interessadas afetadas. Comunicar os benefícios esperados e os riscos potenciais às partes interessadas afetadas. Ajude as pessoas a entender por que os dados são necessários e como o uso dos dados levará ao seu benefício. Descreva o tratamento de dados de forma compreensível.

  • Crie um ciclo de feedback do cliente. Forneça um canal de feedback que permita que usuários e indivíduos relatem problemas com o serviço após sua implantação. Depois de implantar um produto ou recurso alimentado por IA, ele requer monitoramento e aperfeiçoamento contínuos. Esteja pronto para implementar qualquer feedback e sugestões de melhoria. Estabeleça canais para coletar perguntas e preocupações das partes interessadas afetadas. As pessoas que podem ser direta ou indiretamente afetadas pelo sistema incluem funcionários, visitantes e o público em geral.

  • Feedback: Buscar feedback de uma amostra diversificada da comunidade durante o processo de desenvolvimento e avaliação (por exemplo, grupos historicamente marginalizados, pessoas com deficiência e trabalhadores de serviços). Para mais informações, consulte Júri comunitário.

  • Estudo do Utilizador: Qualquer recomendação de consentimento ou divulgação deve ser enquadrada num estudo do utilizador. Avalie a primeira experiência de uso contínuo com uma amostra representativa da comunidade para validar que as escolhas de design levam a uma divulgação efetiva. Realizar pesquisas de usuários com 10-20 membros da comunidade (partes interessadas afetadas) para avaliar sua compreensão das informações e determinar se suas expectativas são atendidas.

  • Transparência e Explicabilidade: Considere habilitar e usar o recurso de explicabilidade de inferência do Personalizer para entender melhor quais recursos desempenham um papel significativo na escolha de decisão do Personalizador em cada chamada de Classificação. Esse recurso permite que você forneça aos usuários transparência sobre como seus dados desempenharam um papel na produção da melhor ação recomendada. Por exemplo, você pode dar aos seus usuários um botão chamado "Por que essas sugestões?" que mostra quais recursos principais desempenharam um papel na produção dos resultados do Personalizador. Essas informações também podem ser usadas para entender melhor quais atributos de dados sobre seus usuários, contextos e ações estão funcionando a favor da escolha da melhor ação do Personalizador, quais estão trabalhando contra ela e que podem ter pouco ou nenhum efeito. Esse recurso também pode fornecer informações sobre seus segmentos de usuários e ajudá-lo a identificar e abordar possíveis vieses.

  • Uso contraditório: considere estabelecer um processo para detetar e agir sobre a manipulação maliciosa. Há atores que tirarão proveito do aprendizado de máquina e da capacidade dos sistemas de IA de aprender com seu ambiente. Com ataques coordenados, eles podem falsificar artificialmente padrões de comportamento que mudam os dados e modelos de IA em direção aos seus objetivos. Se o seu uso do Personalizador pode influenciar escolhas importantes, certifique-se de ter os meios apropriados para detetar e mitigar esses tipos de ataques.

  • Exclusão: considere fornecer um controle para que os usuários optem por não receber recomendações personalizadas. Para esses usuários, a API de classificação do personalizador não será chamada do seu aplicativo. Em vez disso, seu aplicativo pode usar um mecanismo alternativo para decidir qual ação será tomada. Por exemplo, ao optar por não receber recomendações personalizadas e escolher a ação padrão ou de linha de base, o usuário experimentaria a ação que seria executada sem a recomendação do Personalizador. Como alternativa, seu aplicativo pode usar recomendações baseadas em medidas agregadas ou populacionais (por exemplo, tendência atual, top 10 mais populares, etc.).

A sua responsabilidade

Todas as diretrizes para uma implementação responsável baseiam-se na base de que os desenvolvedores e as empresas que usam o Personalizer são responsáveis pelos efeitos do uso desses algoritmos na sociedade. Se você estiver desenvolvendo um aplicativo que sua organização implantará, deverá reconhecer sua função e responsabilidade por sua operação e como ela afeta as pessoas. Se você estiver projetando um aplicativo para ser implantado por terceiros, chegue a um entendimento compartilhado de quem é o responsável final pelo comportamento do aplicativo. Certifique-se de documentar esse entendimento.

Perguntas e comentários

A Microsoft está continuamente atualizando ferramentas e documentos para ajudá-lo a agir de acordo com essas responsabilidades. Nossa equipe convida você a fornecer comentários à Microsoft se você acredita que outras ferramentas, recursos de produtos e documentos o ajudariam a implementar essas diretrizes para usar o Personalizador.

  • Veja os seis princípios da Microsoft para o desenvolvimento responsável da IA publicados no livro de janeiro de 2018, The Future Computed.

Próximos passos

Entenda como a API do Personalizador recebe recursos: Recursos: Ação e Contexto