Compartilhar via


Adote princípios de IA responsáveis e confiáveis

Os seis princípios-chave para uma IA responsável na Microsoft incluem justiça, confiabilidade e segurança, privacidade e proteção, inclusão, transparência e responsabilidade. Use esses princípios para criar uma IA responsável e confiável à medida que você a integra aos principais produtos e serviços ao longo de sua jornada de adoção da IA.

Princípios de o uso responsável de IA

A Microsoft se compromete a capacitar práticas de IA responsáveis.

Seis princípios-chave definem a IA responsável:

  • Justiça: Os sistemas de IA devem tratar todos igualmente e fornecer as mesmas recomendações a todos os indivíduos. A justiça nos sistemas de IA evita a discriminação com base nas características pessoais.

  • Confiabilidade e segurança: os sistemas de IA devem operar de forma confiável, segura e consistente sob várias condições para ajudar a construir confiança.

  • Privacidade e segurança: os sistemas de IA devem respeitar a privacidade e manter a segurança, protegendo informações privadas e confidenciais. Eles também devem resistir a ataques e tentativas de corromper ou comprometer o sistema.

  • Inclusão: os sistemas de IA devem capacitar a todos e engajar todos. As práticas de design inclusivas podem ajudar os desenvolvedores de sistemas de IA a entender e abordar possíveis barreiras de exclusão em um produto ou serviço. A inclusão promove a inovação e ajuda a projetar experiências que beneficiem a todos.

  • Transparência: os sistemas de IA devem ser transparentes e compreensíveis. Os sistemas de IA podem informar decisões que podem afetar profundamente a vida das pessoas, por isso é crucial que os indivíduos entendam como o sistema toma essas decisões.

  • Responsabilidade: Os sistemas de IA e seus desenvolvedores devem ser responsáveis.

Incorpore princípios de IA responsável em toda a sua jornada de adoção de IA, desde a estratégia e o planejamento até a implementação. Certifique-se de aplicar esses princípios ao proteger, gerenciar e governar suas iniciativas de IA.

Diagrama que mostra como a IA responsável é fundamental para todo o trabalho de IA em todas as metodologias no Cloud Adoption Framework para Azure.

Essas diretrizes de adoção de IA incluem exemplos de como você pode usar o Cloud Adoption Framework para Azure para implementar práticas de IA responsáveis. Os princípios da IA responsável são integrados às orientações e recomendações ao longo desta jornada de adoção da IA.

A importância da IA responsável

A IA responsável ajuda a mitigar os seguintes riscos:

  • Consequências não intencionais: planeje e supervisione sua implementação responsável de IA para reduzir o risco de efeitos imprevistos que tenham implicações éticas.

  • Ameaças em evolução: Novas ameaças surgem regularmente à medida que a tecnologia de IA evolui. Para ajudar a mitigar e ficar à frente dessas ameaças, siga os princípios da IA responsável.

  • Viés: A mitigação de viés na IA pode ser desafiadora, mas é necessária para garantir que os sistemas de IA sejam justos e imparciais. Use os princípios de IA responsável para ajudar a guiá-lo.

  • Tecnologias sensíveis: Tecnologias como o reconhecimento facial podem ser consideradas tecnologias sensíveis devido ao risco às liberdades fundamentais e aos direitos humanos. Considere as implicações dessas tecnologias para garantir que você as use com responsabilidade.

Facilitação do Azure

O Microsoft Azure fornece uma variedade de ferramentas, serviços e recursos para ajudá-lo a criar sistemas de IA responsáveis.

Use a Segurança de Conteúdo de IA do Azure para criar sistemas seguros

Use a Segurança de Conteúdo de IA do Azure para detectar conteúdo prejudicial gerado pelo usuário e por IA em aplicativos e serviços. A Segurança de conteúdo ajuda você a analisar o conteúdo gerado em seus aplicativos de IA, incluindo texto e imagens, para garantir que seja seguro e apropriado para seus usuários. A Segurança de Conteúdo fornece os seguintes recursos:

  • As proteções de prompt verificam texto e documentos em busca do risco de um ataque de entrada do usuário, ou jailbreak, em um modelo de linguagem grande (LLM).

  • A detecção de aterramento detecta se as respostas de texto de um LLM estão fundamentadas nos materiais de origem fornecidos pelos usuários.

  • A detecção de material protegido detecta se as respostas de texto de um LLM contêm material protegido, como texto protegido por direitos autorais, letras de músicas, artigos e conteúdo da Web.

  • A API de categorias personalizadas (rápidas) define padrões de conteúdo prejudicial emergentes e verifica texto e imagens em busca de correspondências.

  • A API Analyze Text analisa conteúdo de texto potencialmente prejudicial. Normalmente identifica categorias como ódio, automutilação e conteúdo sexual ou violento.

  • A API Analyze Image analisa o conteúdo de imagem potencialmente prejudicial. Normalmente identifica categorias como ódio, automutilação e conteúdo sexual ou violento.

Usar a IA com responsabilidade nos serviços de IA do Azure

A Microsoft fornece uma lista de notas de transparência para serviços do Azure relevantes para IA. A lista inclui serviços dentro do pacote de serviços de IA do Azure. Para obter mais informações, consulte Uso responsável da IA com os serviços de IA do Azure.

Usar o painel de IA Responsável do Azure Machine Learning

Se você criar sistemas com o Azure Machine Learning, poderá usar o painel de IA responsável para avaliar seus sistemas de IA. O painel de IA Responsável fornece uma interface única para ajudar você a implementar princípios de IA responsável. Alguns dos recursos de IA responsável incluem:

  • Análise de dados: Entenda e explore as distribuições e estatísticas do seu conjunto de dados.

  • Visão geral do modelo e avaliação de imparcialidade: avalie o desempenho do modelo e os problemas de imparcialidade do grupo do modelo.

  • Análise de erros: visualize e entenda como os erros são distribuídos em seu conjunto de dados.

  • Interpretabilidade do modelo: entenda as previsões do seu modelo e como ele faz previsões individuais e gerais.

  • Análise hipotética contrafactual: observe como as alterações nos recursos podem afetar as previsões do modelo.

  • Análise causal: use dados históricos para exibir os efeitos causais dos recursos de tratamento nos resultados do mundo real.

Desenvolva a IA com responsabilidade

Recurso Descrição
Ferramentas práticas para criar experiências eficazes de IA humana (HAXs) Use o HAX Toolkit no início do processo de design para ajudá-lo a conceituar o que o sistema de IA faz e como ele se comporta. Use o HAX Toolkit para produtos de IA voltados para o usuário.
Diretrizes de IA de conversa Projete bots de uma forma que ganhe a confiança de outras pessoas para ajudar as pessoas e a sociedade a realizar todo o seu potencial. Use essas diretrizes para criar um bot que crie confiança na empresa e no serviço que ele representa.
Diretrizes de design de IA inclusiva Use estas diretrizes para ajudá-lo a projetar uma IA inclusiva e acessível a todos.
Lista de verificação de imparcialidade de IA Use a lista de verificação de imparcialidade de IA para determinar se seu sistema de IA é justo e imparcial.
IA Responsável em Machine Learning Examine esses recursos de IA responsável se você usar o Machine Learning para criar sistemas de IA.

Próxima etapa