Compartilhar via


O que é a IA responsável?

APLICA-SE A:Extensão de ML da CLI do Azure v2 (atual)SDK do Python azure-ai-ml v2 (atual)

A IA responsável (Inteligência Artificial Responsável) é uma abordagem para desenvolver, avaliar e implantar sistemas de IA de maneira segura, confiável e ética. Os sistemas de IA são o produto de muitas decisões diferentes tomadas por aqueles que os desenvolvem e os implantam. Da finalidade do sistema à forma como as pessoas interagem com sistemas de IA, a IA responsável pode ajudar a orientar proativamente essas decisões visando resultados mais benéficos e equitativos. Isso significa manter as pessoas e suas metas no centro das decisões de design do sistema e respeitar valores duradouros como imparcialidade, confiabilidade e transparência.

A Microsoft desenvolveu um Padrão de IA Responsável. É uma estrutura para a criação de sistemas de IA de acordo com seis princípios: imparcialidade, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. Para a Microsoft, esses princípios são a base de uma abordagem de IA responsável e confiável, principalmente à medida que a tecnologia inteligente fica cada vez mais predominante nos produtos e serviços que usamos todos os dias.

Este artigo demonstra como o Azure Machine Learning dá suporte a ferramentas para permitir que desenvolvedores e cientistas de dados implementem e operacionalizem os seis princípios.

 Diagrama dos seis princípios da IA Responsável da Microsoft, que abrangem imparcialidade, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade.

Imparcialidade e inclusividade

Os sistemas de IA devem tratar todos de forma justa e evitar tratar grupos de pessoas similarmente situadas de formas diferentes. Por exemplo, quando os sistemas de IA fornecem diretrizes sobre tratamento médico, solicitações de empréstimo ou emprego, eles devem fazer as mesmas recomendações a todos com sintomas, circunstâncias financeiras ou qualificações profissionais semelhantes.

Imparcialidade e inclusão no Azure Machine Learning: o componente de avaliação de imparcialidade do painel de IA Responsável permite que cientistas de dados e desenvolvedores avaliem a imparcialidade do modelo entre grupos confidenciais definidos em termos de gênero, etnia, idade e outras características.

Confiabilidade e segurança

Para estabelecer a confiança, é fundamental que os sistemas de IA operem com confiança, segurança e consistência. Esses sistemas devem conseguir funcionar de acordo com o modo como foram originalmente projetados, responder com segurança a condições não previstas e resistir à manipulação prejudicial. A maneira como eles se comportam e a variedade de condições com as quais eles podem lidar de maneira confiável e segura refletem a variedade de situações e circunstâncias previstas pelos desenvolvedores durante o design e o teste.

Confiabilidade e segurança no Azure Machine Learning: o componente de análise de erros do painel de IA responsável permite que cientistas de dados e desenvolvedores:

  • Obtenham uma compreensão profunda de como a falha é distribuída para um modelo.
  • Identifiquem coortes (subconjuntos) de dados com uma taxa de erro maior do que o parâmetro de comparação geral.

Essas discrepâncias podem ocorrer quando o sistema ou o modelo apresentam baixo desempenho para grupos demográficos específicos ou condições de entrada raramente observadas nos dados de treinamento.

Transparência

Quando os sistemas de IA são usados para informar decisões que causam um grande impacto na vida das pessoas, é fundamental que as pessoas entendam como essas decisões foram tomadas. Por exemplo, um banco pode usar um sistema de IA para decidir se uma pessoa tem direito a crédito. Uma empresa pode usar um sistema de IA para determinar os candidatos mais qualificados a serem contratados.

Uma parte crucial da transparência é a interpretabilidade: a explicação útil do comportamento dos sistemas de IA e seus componentes. O aprimoramento da Interpretabilidade requer que as partes interessadas compreendam como e por que os sistemas de IA funcionam de determinada maneira. As partes interessadas podem identificar possíveis problemas de desempenho, problemas de imparcialidade, práticas de exclusão ou resultados não intencionais.

Transparência no Azure Machine Learning: os componentes de interpretabilidade de modelo e de teste de hipóteses contrafactuais do painel de IA Responsável permitem que cientistas de dados e desenvolvedores gerem descrições compreensíveis por pessoas das previsões de um modelo.

O componente de interpretabilidade do modelo fornece várias exibições sobre o comportamento de um modelo:

  • Explicações globais. Por exemplo, quais recursos afetam o comportamento geral de um modelo de alocação de empréstimos?
  • Explicações locais. Por exemplo, por que a solicitação de empréstimo de um cliente foi aprovada ou rejeitada?
  • Explicações de modelo de um coorte selecionado de pontos de dados. Por exemplo, quais recursos afetam o comportamento geral de um modelo de alocação de empréstimos de receita inferior?

Além disso, o componente de teste de hipóteses contrafactuais permite entender e depurar um modelo de machine learning em termos de como ele reage às alterações e perturbações de recursos.

O Azure Machine Learning também dá suporte a um scorecard de IA responsável. O scorecard é um relatório em PDF personalizável que os desenvolvedores podem facilmente configurar, gerar, baixar e compartilhar com partes interessadas técnicas e não técnicas para instruí-las sobre a integridade dos conjuntos de dados e modelos, garantir a conformidade e criar confiança. Esse scorecard também pode ser usado em revisões de auditoria para descobrir as características dos modelos de machine learning.

Privacidade e segurança

À medida que a IA se torna mais predominante, a proteção da privacidade e das informações pessoais e comerciais fica cada vez mais crítica e complexa. Com a IA, a privacidade e a segurança de dados exigem atenção especial porque o acesso aos dados é essencial para os sistemas de IA fazerem previsões e tomarem decisões precisas e informadas sobre as pessoas. Os sistemas de IA precisam estar em conformidade com as leis de privacidade que:

  • Exigem transparência sobre a coleta, o uso e o armazenamento de dados.
  • Exigem que os consumidores tenham controles apropriados para escolher como os dados são usados.

Privacidade e segurança no Azure Machine Learning: o Azure Machine Learning permite que administradores e desenvolvedores criem uma configuração segura em conformidade com as políticas da empresa. Com o Azure Machine Learning e a plataforma Azure, os usuários podem:

  • Restringir o acesso a recursos e operações por conta de usuário ou grupos.
  • Restringir as comunicações de rede de entrada e saída.
  • Criptografar dados em trânsito e em repouso.
  • Examinar se há vulnerabilidades.
  • Aplicar e auditar políticas de configuração.

A Microsoft também criou dois pacotes de software livre que podem habilitar a implementação adicional de princípios de privacidade e segurança:

  • SmartNoise: a privacidade diferencial é um conjunto de sistemas e práticas que ajuda a manter os dados de indivíduos seguros e privados. Em soluções de machine learning, a privacidade diferencial pode ser necessária para conformidade regulatória. SmartNoise é um projeto de código aberto (codesenvolvido pela Microsoft) que contém diferentes componentes para a criação de sistemas privados diferenciais globais.

  • Counterfit: é um projeto de código aberto que consiste em uma ferramenta de linha de comando e uma camada de automação genérica para permitir que os desenvolvedores simulem ataques cibernéticos contra sistemas de IA. Qualquer pessoa pode baixar a ferramenta e implantá-la por meio do Azure Cloud Shell, para ser executada no navegador ou localmente em um ambiente do Anaconda Python. Ele pode avaliar modelos de IA hospedados em vários ambientes de nuvem, locais ou na borda. A ferramenta é independente de modelos de IA e dá suporte a vários tipos de dados, incluindo texto, imagens ou entrada genérica.

Responsabilidade

As pessoas que criam e implantam sistemas de IA precisam ser responsáveis pela forma como seus sistemas operam. As organizações devem se basear nos padrões do setor para desenvolver normas de responsabilidade. Essas normas podem garantir que os sistemas de IA não sejam a autoridade final em nenhuma decisão que afete a vida das pessoas. Elas também podem garantir que as pessoas mantenham um controle significativo sobre sistemas de IA altamente autônomos.

Responsabilidade no Azure Machine Learning: as MLOps (operações de machine learning) se baseiam em princípios e práticas de DevOps que aumentam a eficiência dos fluxos de trabalho de IA. O Azure Machine Learning fornece os seguintes recursos de MLOps para melhor responsabilidade de seus sistemas de IA:

  • Registrar, empacotar e implantar modelos de qualquer lugar. Também é possível rastrear os metadados associados necessários para usar o modelo.
  • Capturar os dados de governança para o ciclo de vida de machine learning de ponta a ponta. As informações de linhagem registradas podem incluir quem publica modelos, por que as alterações foram feitas e quando os modelos foram implantados ou usados em produção.
  • Notificar e alertar sobre eventos no ciclo de vida de machine learning. Exemplos de eventos incluem a conclusão de experimento, o registro do modelo, a implantação de modelo e a detecção de descompasso de dados.
  • Monitorar aplicativos em relação a problemas operacionais e problemas relacionados a machine learning. Comparar as entradas de modelo entre treinamento e inferência, explorar métricas específicas de modelo e fornecer monitoramento e alertas em sua infraestrutura de aprendizado de máquina.

Além das funcionalidades de MLOps, o scorecard de IA responsável no Azure Machine Learning cria responsabilidade habilitando comunicações entre stakeholders. O scorecard também cria responsabilidade capacitando os desenvolvedores a configurar, baixar e compartilhar os insights de integridade do modelo com stakeholders técnicos e não técnicos sobre a integridade dos dados e dos modelos de IA. O compartilhamento desses insights pode ajudar a criar confiança.

A plataforma de machine learning também habilita a tomada de decisões informando as decisões de negócios por meio de:

  • Insights controlados por dados para ajudar os stakeholders a entender os efeitos do tratamento causal em um resultado, usando apenas dados históricos. Por exemplo, "Como um medicamento afetaria a pressão arterial de um paciente?". Esses insights são fornecidos por meio do componente de inferência causal do painel de IA responsável.
  • Insights controlados por modelo, para responder a perguntas dos usuários finais (como “O que posso fazer para obter um resultado diferente da IA da próxima vez?”) para que eles possam executar ações. Esses insights são fornecidos aos cientistas de dados por meio do componente Teste de hipóteses contrafactuais do painel de IA responsável.

Próximas etapas