Compartilhar via


Modelo de responsabilidade compartilhada de IA (inteligência artificial)

Ao considerar e avaliar a integração habilitada para IA, é essencial entender o modelo de responsabilidade compartilhada e quais tarefas a plataforma de IA ou o provedor de aplicativos gerencia e quais tarefas você gerencia. As responsabilidades da carga de trabalho variam dependendo se a integração de IA é baseada em SaaS (Software como Serviço), PaaS (Plataforma como Serviço) ou IaaS (Infraestrutura como Serviço).

Divisão de responsabilidade

Assim como acontece com os serviços de nuvem, você tem opções ao implementar recursos de IA para sua organização. Dependendo de qual opção você escolher, você assume a responsabilidade por diferentes partes das operações e políticas necessárias para usar a IA com segurança.

O diagrama a seguir ilustra as áreas de responsabilidade entre você e a Microsoft, de acordo com o tipo de implantação.

Diagrama mostrando zonas de responsabilidade de IA.

Visão geral da camada de IA

Um aplicativo habilitado para IA consiste em três camadas de funcionalidade que agrupam tarefas, realizadas por você ou por um provedor de IA. As responsabilidades de segurança geralmente residem com quem executa as tarefas, mas um provedor de IA pode optar por expor a segurança ou outros controles como uma opção de configuração para você, conforme for apropriado. Essas três camadas incluem:

Plataforma de inteligência artificial

A camada de plataforma de IA fornece os recursos de IA para os aplicativos. Na camada de plataforma, há a necessidade de criar e proteger a infraestrutura que executa o modelo de IA, os dados de treinamento e as configurações específicas que alteram o comportamento do modelo, como pesos e vieses. Essa camada fornece acesso à funcionalidade por meio de APIs, que passam texto conhecido como Metaprompt para o modelo de IA para processamento e retornam o resultado gerado, conhecido como Prompt-Response.

Considerações sobre a segurança da plataforma de IA – para proteger a plataforma de IA contra entradas mal-intencionadas, um sistema de segurança deve ser criado para filtrar as instruções potencialmente prejudiciais enviadas ao modelo de IA (entradas). Como os modelos de IA são generativos, também há um potencial de que algum conteúdo prejudicial possa ser gerado e retornado ao usuário (saídas). Qualquer sistema de segurança deve primeiro proteger contra entradas e saídas potencialmente prejudiciais de várias classificações, incluindo ódio, violações de segurança entre outros. Essas classificações provavelmente evoluirão ao longo do tempo com base no conhecimento do modelo, localidade e setor.

A Microsoft tem sistemas de segurança internos para ofertas de PaaS e SaaS:

Aplicativo de IA

O aplicativo de IA acessa os recursos de IA e fornece o serviço ou a interface que o usuário consome. Os componentes nessa camada podem variar de relativamente simples a altamente complexos, dependendo do aplicativo. Os aplicativos de IA autônomos mais simples atuam como uma interface para um conjunto de APIs que usam um prompt de usuário baseado em texto e passam esses dados para o modelo para obter uma resposta. Os aplicativos de IA mais complexos incluem a capacidade de fundamentar a solicitação do usuário com contexto adicional, incluindo uma camada de persistência, índice semântico ou por meio de plug-ins para permitir o acesso a mais fontes de dados. Os aplicativos avançados de IA também podem ser adaptados com aplicativos e sistemas já existentes. Os aplicativos e sistemas existentes podem funcionar com texto, áudio e imagens para gerar vários tipos de conteúdo.

Considerações sobre a segurança do aplicativo de IA – um sistema de segurança de aplicativo deve ser criado para proteger o aplicativo de IA contra atividades mal-intencionadas. O sistema de segurança fornece uma inspeção profunda do conteúdo que está sendo usado no Metaprompt enviado para o modelo de IA. O sistema de segurança também inspeciona as interações com plug-ins, conectores de dados e outros aplicativos de IA (conhecidos como Orquestração de IA). Uma maneira de incorporar isso em seu próprio aplicativo de IA baseado em IaaS/PaaS é usar o serviço de Segurança de Conteúdo de IA do Azure. Outros recursos estão disponíveis dependendo de suas necessidades.

Uso de IA

A camada de uso de IA descreve como os recursos de IA são usados e consumidos. A IA generativa oferece um novo tipo de interface de usuário/computador que é fundamentalmente diferente de outras interfaces de computador, como API, prompt de comando e GUIs (interfaces gráficas do usuário). A interface de IA generativa é interativa e dinâmica, permitindo que os recursos do computador se ajustem ao usuário e à sua intenção. A interface de IA generativa contrasta com as interfaces anteriores que forçam principalmente os usuários a aprender o design e a funcionalidade do sistema e ajustar-se a eles. Essa interatividade permite que a entrada do usuário, em vez dos designers de aplicativos, tenha um alto nível de influência sobre a saída do sistema, tornando as proteções de segurança essenciais para proteger pessoas, dados e ativos de negócios.

Considerações sobre a segurança de uso de IA – proteger o uso da IA é semelhante a qualquer sistema de computador, pois depende de garantias de segurança para controles de identidade e acesso, proteções e monitoramento de dispositivos, proteção e governança de dados, controles administrativos e outros controles.

Mais ênfase é necessária no comportamento e na responsabilidade do usuário devido à maior influência que eles têm na saída dos sistemas. É fundamental atualizar as políticas de uso aceitáveis e instruir os usuários sobre a diferença entre os aplicativos de TI padrão e os aplicativos habilitados para IA. Elas devem incluir considerações específicas de IA relacionadas à segurança, privacidade e ética. Além disso, os usuários devem ser ensinados sobre os ataques baseados em IA que podem ser usados para enganá-los com texto, vozes e vídeos falsos convincentes e muito mais.

Os tipos de ataque específicos de IA são definidos em:

Ciclo de vida da segurança

Assim como acontece com a segurança de outros tipos de funcionalidade, é essencial planejar uma abordagem completa. Uma abordagem completa inclui pessoas, processos e tecnologia em todo o ciclo de vida da segurança: identificar, proteger, detectar, responder, recuperar e governar. Qualquer lacuna ou fraqueza neste ciclo de vida pode levá-lo a:

  • Falhar ao proteger ativos importantes
  • Experimentar ataques facilmente evitáveis
  • Não conseguir lidar com ataques
  • Não conseguir restaurar rapidamente os serviços comercialmente críticos
  • Aplicar controles inconsistentemente

Para saber mais sobre a natureza exclusiva do teste contra ameaças de IA, leia como A Equipe Vermelha de IA da Microsoft está criando o futuro com IA mais segura.

Configurar antes de personalizar

A Microsoft recomenda que as organizações comecem com abordagens baseadas em SaaS, como o modelo Copilot, para a adoção inicial da IA e para todas as cargas de trabalho de IA subsequentes. Isso minimiza o nível de responsabilidade e experiência que sua organização precisa fornecer para projetar, operar e proteger esses recursos altamente complexos.

Se os recursos atuais prontos para uso não atenderem às necessidades específicas de uma carga de trabalho, você poderá adotar um modelo de PaaS usando serviços de IA, como o Serviço OpenAI do Azure, para atender a esses requisitos específicos.

A criação de modelos personalizados só deve ser adotada por organizações com profunda experiência em ciência de dados e na segurança, privacidade e considerações éticas de IA.

Para ajudar a trazer a IA ao mundo, a Microsoft está desenvolvendo soluções Copilot para cada uma das principais soluções de produtividade: desde Bing e Windows até GitHub e Office 365. A Microsoft está desenvolvendo soluções completas para todos os tipos de cenários de produtividade. Elas são oferecidas como soluções SaaS. Integradas à interface do usuário do produto, elas são ajustadas para ajudar o usuário com tarefas específicas para aumentar a produtividade.

A Microsoft garante que todas as soluções Copilot são projetadas seguindo nossos robustos princípios de governança de IA.

Próximas etapas

Saiba mais sobre os requisitos de desenvolvimento de produtos da Microsoft para IA responsável em O padrão de IA responsável da Microsoft.

Saiba mais sobre as responsabilidades compartilhadas da computação em nuvem.