2 de agosto de 2023

Nos últimos dois anos, o iProov testemunhou um grande aumento em um novo tipo de troca de rosto. Esse tipo é consideravelmente mais avançado do que as trocas de rosto tradicionais - são tridimensionais e mais resistentes às técnicas de detecção estabelecidas. Nosso Relatório de Inteligência sobre Ameaças revelou que a frequência dessa nova ameaça cresceu exponencialmente - 295% de H1 a H2.

Os malfeitores estão usando uma sofisticada tecnologia de IA generativa para criar e lançar ataques na tentativa de explorar os sistemas de segurança das organizações e fraudar indivíduos. Dessa forma, acreditamos que a conscientização e a compreensão das tecnologias deepfake devem ser expandidas e discutidas mais amplamente para combater esses esforços. Sem uma visão do cenário de ameaças, as organizações terão dificuldades para empregar a tecnologia de verificação adequada que possa se defender contra elas.

Este artigo explica o que são as trocas de rosto, por que elas são tão perigosas e discute soluções para essa ameaça crescente.

O que são trocas de rosto?

As trocas de rosto são um tipo de imagem sintética criada a partir de duas entradas. Elas combinam vídeos ou transmissões ao vivo existentes e sobrepõem outra identidade ao feed original em tempo real.

O resultado final é uma saída de vídeo 3D falsa, que é mesclada a partir de mais de uma face.

Para resumir, as trocas de rosto podem ser resumidas em um processo de três etapas:

  1. A entrada um é o vídeo do atacante
  2. A entrada dois é o vídeo da identidade-alvo que eles estão tentando imitar
  3. O software reúne as duas entradas acima em um resultado final, ou seja, um vídeo 3D falsificado de um indivíduo-alvo.

Um comparador de faces sem as defesas adequadas identificaria a saída como o indivíduo genuíno. O resultado final será um pouco parecido com este:

 


Uma troca de rosto ataque refere-se especificamente ao uso das imagens sintéticas acima juntamente com a metodologia de implantação escolhida (como man-in-the-middle ou desvio de câmera) para lançar um ataque direcionado a um sistema ou organização.

Por que você deve se preocupar com os ataques de troca de rosto?

Os criminosos podem usar trocas de rostos para cometer crimes como fraude de nova conta, fraude de aquisição de conta ou fraude de identidade sintética. Você pode imaginar como uma troca de faces pode ser eficaz durante um processo de verificação de identidade on-line, já que um fraudador pode controlar as ações da face emitida à vontade. As trocas de rosto são especialmente exclusivas porque podem ser utilizadas em tempo real.

Imagine o seguinte: um fraudador precisa passar em uma verificação de chamada de vídeo. Um deepfake tradicional pré-gravado ou 2D seria inútil nesse caso, pois não poderia ser usado para responder a perguntas em tempo real. No entanto, usando uma troca de rosto ao vivo, um criminoso poderia concluir a verificação da chamada de vídeo transformando suas próprias ações (e até mesmo a fala) com outra entrada da pessoa genuína que ele está fingindo ser - criando, em última análise, uma saída sintética para enganar o processo de verificação.

Vamos considerar alguns problemas adicionais associados a novos ataques de troca de faces:

  • Os ataques de troca de rosto estão aumentando em frequência: Aumento de 295% de H1 para H2 somente em 2022. Essa taxa de crescimento indica que criminosos pouco qualificados estão obtendo acesso aos recursos necessários para lançar ataques sofisticados.
  • Crime como serviço está crescendo: A disponibilidade de ferramentas on-line está acelerando a evolução do cenário de ameaças. Isso está permitindo que os criminosos lancem ataques avançados com mais rapidez e em maior escala. Se os ataques forem bem-sucedidos, eles aumentam rapidamente em volume e frequência à medida que são compartilhados entre redes estabelecidas de crime como serviço ou na darkweb, ampliando o risco de danos graves.
  • A intervenção manual não é mais eficaz: Embora 57% dos consumidores globais acreditem que podem identificar com sucesso uma deepfake, um estudo descobriu que apenas 24% das pessoas conseguem. E esperamos que os resultados desse estudo variem muito, dependendo da qualidade da deepfake e do treinamento especializado do indivíduo; muitas hoje são genuinamente indistinguíveis ao olho humano.

Como são lançados os ataques de troca de rosto?

Os ataques de troca de face são realizados por técnicas de injeção digital para tentar falsificar um sistema de autenticação biométrica.

A ataque de injeção digital é quando um ataque é injetado em um aplicativo ou em uma conexão de servidor de rede, ignorando totalmente o sensor.

Um vídeo gravado pode ser colocado diante de uma câmera (o que é chamado de ataque de apresentação), mas não classificaríamos isso como uma troca de rosto. Uma troca de rosto é o uso de qualquer número de aplicativos para aplicar uma representação digital falsa do rosto de uma pessoa (no todo ou em parte) e sobrepô-la à dos atores. Isso é feito por injeção digital.

Os ataques de injeção digital são o método de implementação mais perigoso porque são uma forma de ataque altamente escalável e replicável. Embora a Presentation Attack Detection seja credenciada por organizações como a NIST FRVT e a iBeta, não existe nenhum teste desse tipo para a detecção de ataques de injeção digital; portanto, as organizações são aconselhadas a fazer suas próprias pesquisas sobre como os fornecedores atenuam essa crescente metodologia de ataque e mantêm os usuários seguros de forma contínua.

As soluções de verificação biométrica de faces devem se defender contra ataques de troca de faces

À medida que mais e mais atividades passam a ser on-line e os projetos de transformação digital e identidade digital amadurecem, a necessidade de verificação e autenticação fortes do usuário só tende a crescer em importância.

A verdade é que os métodos tradicionais de verificação não conseguiram manter os usuários seguros on-line. Não se pode confiar apenas nos dados como confirmação de quem é uma pessoa. As senhas podem ser decifradas, roubadas, perdidas ou compartilhadas. As OTPs podem ser interceptadas. A verificação de chamadas de vídeo pode ser falsificada e depender de julgamento manual, que não consegue mais distinguir de forma confiável entre imagens genuínas e sintéticas.

Assim, a verificação biométrica facial surgiu como o único método seguro e conveniente de verificar a identidade do usuário on-line. Entretanto, o ponto crucial aqui é que nem todas as soluções de verificação facial biométrica são criadas igualmente.

As soluções biométricas se diferenciam pelo sucesso com que conseguem estabelecer a vivacidade e proporcionar uma experiência inclusiva ao usuário (em relação a idade, gênero, etnia, capacidade cognitiva etc.). Para obter mais informações sobre a vivacidade e as diferentes tecnologias de verificação biométrica da face no mercado, juntamente com seus principais diferenciais, leia nosso e-book Desmistificando a verificação biométrica da face aqui.

Como destacamos neste artigo, há sérias ameaças crescentes à segurança (como ocorre com qualquer tecnologia de garantia de identidade). Ao escolher uma solução biométrica, você deve estar ciente dos desafios relacionados à segurança para poder empregar a tecnologia de verificação adequada.

Vamos analisar alguns dos principais fatores a serem considerados especificamente ao escolher um fornecedor de biometria que se defenda contra trocas de rosto:

  • Segurança contínua e em evolução: Dada a natureza transformadora da IA generativa e a escalabilidade dos ataques de injeção digital, a segurança biométrica deve aprender com as ameaças de forma contínua e ser gerenciada ativamente 24 horas por dia, 7 dias por semana.
  • Autenticação passiva: Nosso relatório de ameaças constatou que os sistemas de verificação ativos e baseados em movimento - que testam movimentos como sorrir, acenar com a cabeça e piscar como indicadores de vivacidade - foram mais frequentemente alvo de ataques de troca de rosto. Isso ocorre porque os ataques avançados de imagens sintéticas, como as trocas de rosto, podem executar ações em tempo real, contornando os sistemas ativos e tornando-os mais suscetíveis à crescente ameaça. Portanto, recomenda-se o uso de sistemas biométricos passivos.
  • Proteção contra ataques de injeção digital: Embora muitas soluções de detecção de vivacidade possam detectar ataques de apresentação ou repetição que são apresentados à câmera, a maioria não consegue detectar ataques que foram injetados digitalmente em um sistema. A atenuação de ataques de injeção digital é essencial.

Novos ataques de troca de faces e verificação biométrica de faces: Um resumo

A tecnologia para criar deepfakes está ficando cada vez melhor, mais barata e mais prontamente disponível. É por isso que a proteção contra deepfake se tornará cada vez mais crucial à medida que a ameaça de deepfake crescer e mais pessoas se conscientizarem dos perigos.

As organizações precisam avaliar suas soluções de verificação quanto à resiliência diante de ataques complexos, como as trocas de rosto. Para obter mais informações sobre as trocas de rosto e o cenário de ameaças em evolução, leia nosso relatório mais recente, o "iProov Threat Intelligence Report 2024: The Impact of Generative AI on Remote Identity Verification" (O impacto da IA geradora na verificação remota de identidade). Nele, destacamos os principais padrões de ataque observados ao longo de 2023. Sendo o primeiro do gênero, ele destaca padrões de ataques biométricos em produção até então desconhecidos, ajudando as organizações a tomar decisões informadas sobre qual tecnologia e qual nível de segurança implementar. Leia o relatório completo aqui.