Adote princípios de IA responsáveis e confiáveis
Os seis princípios-chave para uma IA responsável na Microsoft incluem justiça, confiabilidade e segurança, privacidade e proteção, inclusão, transparência e responsabilidade. Use esses princípios para criar uma IA responsável e confiável à medida que você a integra aos principais produtos e serviços ao longo de sua jornada de adoção da IA.
Princípios de o uso responsável de IA
A Microsoft se compromete a capacitar práticas de IA responsáveis.
Seis princípios-chave definem a IA responsável:
Justiça: Os sistemas de IA devem tratar todos igualmente e fornecer as mesmas recomendações a todos os indivíduos. A justiça nos sistemas de IA evita a discriminação com base nas características pessoais.
Confiabilidade e segurança: os sistemas de IA devem operar de forma confiável, segura e consistente sob várias condições para ajudar a construir confiança.
Privacidade e segurança: os sistemas de IA devem respeitar a privacidade e manter a segurança, protegendo informações privadas e confidenciais. Eles também devem resistir a ataques e tentativas de corromper ou comprometer o sistema.
Inclusão: os sistemas de IA devem capacitar a todos e engajar todos. As práticas de design inclusivas podem ajudar os desenvolvedores de sistemas de IA a entender e abordar possíveis barreiras de exclusão em um produto ou serviço. A inclusão promove a inovação e ajuda a projetar experiências que beneficiem a todos.
Transparência: os sistemas de IA devem ser transparentes e compreensíveis. Os sistemas de IA podem informar decisões que podem afetar profundamente a vida das pessoas, por isso é crucial que os indivíduos entendam como o sistema toma essas decisões.
Responsabilidade: Os sistemas de IA e seus desenvolvedores devem ser responsáveis.
Incorpore princípios de IA responsável em toda a sua jornada de adoção de IA, desde a estratégia e o planejamento até a implementação. Certifique-se de aplicar esses princípios ao proteger, gerenciar e governar suas iniciativas de IA.
Essas diretrizes de adoção de IA incluem exemplos de como você pode usar o Cloud Adoption Framework para Azure para implementar práticas de IA responsáveis. Os princípios da IA responsável são integrados às orientações e recomendações ao longo desta jornada de adoção da IA.
A importância da IA responsável
A IA responsável ajuda a mitigar os seguintes riscos:
Consequências não intencionais: planeje e supervisione sua implementação responsável de IA para reduzir o risco de efeitos imprevistos que tenham implicações éticas.
Ameaças em evolução: Novas ameaças surgem regularmente à medida que a tecnologia de IA evolui. Para ajudar a mitigar e ficar à frente dessas ameaças, siga os princípios da IA responsável.
Viés: A mitigação de viés na IA pode ser desafiadora, mas é necessária para garantir que os sistemas de IA sejam justos e imparciais. Use os princípios de IA responsável para ajudar a guiá-lo.
Tecnologias sensíveis: Tecnologias como o reconhecimento facial podem ser consideradas tecnologias sensíveis devido ao risco às liberdades fundamentais e aos direitos humanos. Considere as implicações dessas tecnologias para garantir que você as use com responsabilidade.
Facilitação do Azure
O Microsoft Azure fornece uma variedade de ferramentas, serviços e recursos para ajudá-lo a criar sistemas de IA responsáveis.
Use a Segurança de Conteúdo de IA do Azure para criar sistemas seguros
Use a Segurança de Conteúdo de IA do Azure para detectar conteúdo prejudicial gerado pelo usuário e por IA em aplicativos e serviços. A Segurança de conteúdo ajuda você a analisar o conteúdo gerado em seus aplicativos de IA, incluindo texto e imagens, para garantir que seja seguro e apropriado para seus usuários. A Segurança de Conteúdo fornece os seguintes recursos:
As proteções de prompt verificam texto e documentos em busca do risco de um ataque de entrada do usuário, ou jailbreak, em um modelo de linguagem grande (LLM).
A detecção de aterramento detecta se as respostas de texto de um LLM estão fundamentadas nos materiais de origem fornecidos pelos usuários.
A detecção de material protegido detecta se as respostas de texto de um LLM contêm material protegido, como texto protegido por direitos autorais, letras de músicas, artigos e conteúdo da Web.
A API de categorias personalizadas (rápidas) define padrões de conteúdo prejudicial emergentes e verifica texto e imagens em busca de correspondências.
A API Analyze Text analisa conteúdo de texto potencialmente prejudicial. Normalmente identifica categorias como ódio, automutilação e conteúdo sexual ou violento.
A API Analyze Image analisa o conteúdo de imagem potencialmente prejudicial. Normalmente identifica categorias como ódio, automutilação e conteúdo sexual ou violento.
Usar a IA com responsabilidade nos serviços de IA do Azure
A Microsoft fornece uma lista de notas de transparência para serviços do Azure relevantes para IA. A lista inclui serviços dentro do pacote de serviços de IA do Azure. Para obter mais informações, consulte Uso responsável da IA com os serviços de IA do Azure.
Usar o painel de IA Responsável do Azure Machine Learning
Se você criar sistemas com o Azure Machine Learning, poderá usar o painel de IA responsável para avaliar seus sistemas de IA. O painel de IA Responsável fornece uma interface única para ajudar você a implementar princípios de IA responsável. Alguns dos recursos de IA responsável incluem:
Análise de dados: Entenda e explore as distribuições e estatísticas do seu conjunto de dados.
Visão geral do modelo e avaliação de imparcialidade: avalie o desempenho do modelo e os problemas de imparcialidade do grupo do modelo.
Análise de erros: visualize e entenda como os erros são distribuídos em seu conjunto de dados.
Interpretabilidade do modelo: entenda as previsões do seu modelo e como ele faz previsões individuais e gerais.
Análise hipotética contrafactual: observe como as alterações nos recursos podem afetar as previsões do modelo.
Análise causal: use dados históricos para exibir os efeitos causais dos recursos de tratamento nos resultados do mundo real.
Desenvolva a IA com responsabilidade
Recurso | Descrição |
---|---|
Ferramentas práticas para criar experiências eficazes de IA humana (HAXs) | Use o HAX Toolkit no início do processo de design para ajudá-lo a conceituar o que o sistema de IA faz e como ele se comporta. Use o HAX Toolkit para produtos de IA voltados para o usuário. |
Diretrizes de IA de conversa | Projete bots de uma forma que ganhe a confiança de outras pessoas para ajudar as pessoas e a sociedade a realizar todo o seu potencial. Use essas diretrizes para criar um bot que crie confiança na empresa e no serviço que ele representa. |
Diretrizes de design de IA inclusiva | Use estas diretrizes para ajudá-lo a projetar uma IA inclusiva e acessível a todos. |
Lista de verificação de imparcialidade de IA | Use a lista de verificação de imparcialidade de IA para determinar se seu sistema de IA é justo e imparcial. |
IA Responsável em Machine Learning | Examine esses recursos de IA responsável se você usar o Machine Learning para criar sistemas de IA. |