Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo explica o conceito de detecção de vivacidade facial, seu esquema de entrada e saída, e conceitos relacionados.
Introdução
A detecção de atividade facial é usada para determinar se um rosto em uma transmissão de vídeo de entrada é real (ao vivo) ou falso (falsificado). É um bloco de construção importante em um sistema de autenticação biométrica para evitar impostores tentando obter acesso ao sistema ao usar uma fotografia, vídeo, máscara ou outros meios para usurpar a identidade de outra pessoa.
O objetivo da detecção de atividade é garantir que o sistema interaja com uma pessoa fisicamente presente e dinâmica no momento da autenticação. Esses sistemas são cada vez mais importantes com o aumento das finanças digitais, do controle de acesso remoto e dos processos de verificação de identidade online.
A solução de detecção de atividade facial da IA do Azure protege com sucesso contra vários tipos de falsificação, que vão desde impressões em papel, máscaras 2D/3D e apresentações falsas em telefones e laptops. A detecção de atividade é uma área ativa de pesquisa, com melhorias contínuas sendo feitas para combater ataques de falsificação cada vez mais sofisticados. Melhorias contínuas são distribuídas para o cliente e os componentes de serviço ao longo do tempo à medida que a solução geral fica mais robusta para novos tipos de ataques.
A API de detecção de vivacidade facial do Azure está em conformidade com os padrões ISO/IEC 30107-3 de PAD (Detecção de Ataque de Apresentação), validado pelo teste de conformidade de nível 1 e nível 2 do iBeta.
Como funciona
A integração da solução de atividade envolve dois componentes distintos: um aplicativo móvel/web front-end e um servidor/orquestrador de aplicativos.
- Orquestrar o serviço de IA do Azure no servidor de aplicativos: o servidor de aplicativos serve como servidor back-end para criar sessões de detecção de vida e obter um token de autorização de curta duração do serviço Detecção facial para uma sessão específica. Esse token autoriza o aplicativo front-end a executar a detecção de atividade. Os objetivos do servidor de aplicativos são gerenciar as sessões, conceder autorização para o aplicativo de front-end e exibir os resultados do processo de detecção de vida.
- Integrar o SDK da visão de IA do Azure ao aplicativo de front-end: o aplicativo de front-end deve inserir o SDK de Detecção Facial da AI do Azure (iOS, Android ou JavaScript). O SDK abre a câmera, guia o usuário pelo fluxo passivo ou passivo-ativo, criptografa os quadros de vídeo e os transmite, juntamente com o token de sessão de curta duração recebido do seu servidor, diretamente para o ponto de extremidade Detecção Facial da IA do Azure.
- Caminho de link rápido opcional: é possível evitar a inserção do SDK do cliente. O serviço back-end pode trocar o mesmo token de sessão por um Liveness Quick Link de uso único (
https://liveness.face.azure.com/?s=…
). Redirecione o usuário para essa URL e o Azure hospedará toda a experiência de captura no navegador, notificando a conclusão por meio de retorno de chamada opcional. Essa opção reduz o custo de integração e mantém você automaticamente na experiência sempre atualizada do Azure.
Modos de detecção de vida
A API de detecção de vivacidade facial do Azure inclui opções para os modos de detecção Passivo e Passive-Active.
O modo passivo utiliza uma técnica de vida passiva que não requer ações extras do usuário. É necessário um ambiente com iluminação não brilhante para que a operação seja bem-sucedida e pode falhar em ambientes com iluminação brilhante com um erro "Ambiente sem suporte". Ele também requer brilho de tela alta para um desempenho ideal, que é configurado automaticamente nas soluções móveis (iOS e Android). Esse modo pode ser escolhido se você preferir a interação mínima do usuário final e esperar que os usuários finais estejam principalmente em ambientes não brilhantes. Uma verificação de modo passivo leva cerca de 12 segundos em uma média para ser concluída.
O modoPassive-Active se comporta da mesma forma que o modo Passivo em ambientes de iluminação não brilhantes e dispara apenas o modo Ativo em ambientes de iluminação brilhante. Esse modo é preferível em soluções de navegador da Web devido à falta de controle automático de brilho de tela disponível em navegadores, o que dificulta o envelope operacional do modo passivo. Esse modo pode ser escolhido se você quiser que a verificação de vida funcione em qualquer ambiente de iluminação. Se a verificação ativa for disparada devido a um ambiente de iluminação brilhante, o tempo total de conclusão poderá levar até 20 segundos em média.
Você pode definir o modo de detecção durante a etapa de criação da sessão (consulte Executar detecção de vivacidade).
Verificação facial opcional
Você pode combinar a verificação facial com a detecção de vivacidade para verificar se o rosto em questão pertence à pessoa designada. A tabela a seguir descreve os detalhes dos recursos de detecção de atividade:
Característica | Descrição |
---|---|
Detecção de atividade | Determina se uma entrada é real ou falsa, e apenas o servidor de aplicativos tem autoridade para iniciar a verificação de atividade e consultar o resultado. |
Detecção de atividade com verificação facial | Determina se uma entrada é real ou falsa e verifica a identidade da pessoa com base em uma imagem de referência que você forneceu. O servidor de aplicativos ou o aplicativo front-end podem fornecer uma imagem de referência. Somente o servidor de aplicativos tem autoridade para inicializar a verificação de atividade e consultar o resultado. |
Formato da saída
A API de detecção de atividade retorna um objeto JSON com as seguintes informações:
- Uma Decisão de Vivacidade Facial Real ou Tentativa de fraude. Lidamos com a precisão subjacente e a definição de limiar, para que você não precise se preocupar em interpretar "pontuações de confiança" ou tirar conclusões por si mesmo. Isso torna a integração mais fácil e perfeita para os desenvolvedores.
- Opcionalmente, um resultado de Verificação Facial pode ser obtido se a verificação de vida for realizada com verificação (confira Executar detecção de vida com verificação facial).
- Uma "imagem de sessão" filtrada de qualidade que pode ser usada para armazenar para fins de auditoria ou para revisão humana ou para executar análises adicionais usando as APIs do serviço de Detecção Facial.
Privacidade de dados
Não armazenamos imagens ou vídeos da Verificação de Vivacidade Facial. Nenhum dado de imagem ou vídeo é armazenado no serviço de detecção de vida após a conclusão da sessão de detecção de vida. Além disso, os dados de imagem/vídeo enviados durante a verificação de vida são usados apenas para realizar a classificação de verificação de vida, a fim de determinar se o usuário é real ou uma tentativa de fraude (e opcionalmente para fazer uma correspondência com uma imagem de referência no cenário de verificação de vida com verificação), não podem ser visualizados por nenhuma pessoa e não serão usados para melhorias de nenhum modelo de IA.
Segurança
Incluímos proteções automáticas de aplicativos de runtime adicionais (RASP), fornecidas pelo GuardSquare, em nossos SDKs Móveis (iOS e Android).
Opções de suporte
Além de usar as principais opções de suporte dos serviços de IA do Azure, você também pode postar suas perguntas na seção de problemas do repositório do SDK.
Próxima etapa
Agora que você está familiarizado com os conceitos de detecção de vivacidade, implemente a detecção de vivacidade em seu aplicativo.