2 de agosto de 2023

Nos últimos anos, o iProov assistiu a um enorme aumento de um novo tipo de troca de rostos. Este tipo é consideravelmente mais avançado do que as trocas de rosto tradicionais - são tridimensionais e mais resistentes às técnicas de deteção estabelecidas. O nosso Relatório de Inteligência sobre Ameaças revelou que a frequência desta nova ameaça cresceu exponencialmente - 295% de H1 para H2.

Os maus actores estão a utilizar tecnologia sofisticada de IA generativa para criar e lançar ataques na tentativa de explorar os sistemas de segurança das organizações e defraudar indivíduos. Assim, acreditamos que a consciencialização e a compreensão das tecnologias deepfake devem ser expandidas e discutidas mais amplamente para combater esses esforços. Sem uma visão do cenário de ameaças, as organizações terão dificuldade em empregar a tecnologia de verificação adequada para se defenderem contra elas.

Este artigo explica o que são as trocas de rosto, porque é que são tão perigosas e discute soluções para a ameaça crescente.

O que são trocas de rosto?

As trocas de rostos são um tipo de imagem sintética criada a partir de duas entradas. Combinam vídeos ou transmissões em direto existentes e sobrepõem outra identidade ao feed original em tempo real.

O resultado final é uma saída de vídeo 3D falsa, que é fundida a partir de mais do que um rosto.

Resumindo, as trocas de rosto podem ser reduzidas a um processo de 3 passos:

  1. A entrada um é o vídeo do atacante
  2. A segunda entrada é o vídeo da identidade-alvo que estão a tentar imitar
  3. O software reúne as duas entradas acima num resultado final - ou seja, um vídeo 3D falsificado de um indivíduo visado.

Um identificador facial sem as defesas adequadas identificaria o resultado como o indivíduo genuíno. O resultado final será um pouco parecido com isto:

 


Uma troca de rosto ataque refere-se especificamente à utilização das imagens sintéticas acima referidas juntamente com a metodologia de implantação escolhida (como o man-in-the-middle ou o desvio da câmara) para lançar um ataque direcionado a um sistema ou organização.

Porque é que se deve preocupar com os Face Swap Attacks?

Os criminosos podem utilizar as trocas de rosto para cometer crimes como fraude de nova conta, fraude de aquisição de conta ou fraude de identidade sintética. Pode imaginar-se a eficácia que uma troca de rosto pode ter durante um processo de verificação de identidade online, uma vez que um fraudador pode controlar as acções do rosto emitido à vontade. As trocas de rosto são especialmente únicas porque podem ser utilizadas em tempo real.

Imaginemos o seguinte: um burlão precisa de passar um controlo de verificação de uma videochamada. Um deepfake tradicional pré-gravado ou 2D seria inútil aqui, porque não poderia ser usado para responder a perguntas em tempo real. No entanto, usando uma troca de rosto ao vivo, um criminoso poderia completar a verificação da videochamada transformando suas próprias ações (e até mesmo a fala) com outra entrada da pessoa genuína que está fingindo ser - criando, em última análise, uma saída sintética para enganar o processo de verificação.

Vamos considerar algumas questões adicionais associadas a novos ataques de troca de faces:

  • Os ataques de troca de rosto estão a aumentar em frequência: Só em 2022, registou-se um aumento de 295% entre o primeiro e o segundo semestre. Esta taxa de crescimento indica que os criminosos pouco qualificados estão a ganhar acesso aos recursos necessários para lançar ataques sofisticados.
  • O crime como serviço está a crescer: A disponibilidade de ferramentas em linha está a acelerar a evolução do cenário de ameaças. Isto está a permitir que os criminosos lancem ataques avançados mais rapidamente e em maior escala. Se os ataques forem bem sucedidos, aumentam rapidamente de volume e frequência à medida que são partilhados entre as redes de crime como serviço estabelecidas ou na darkweb, aumentando o risco de danos graves.
  • A intervenção manual já não é eficaz: Embora 57% dos consumidores globais acreditem que conseguem detetar com sucesso uma deepfake, um estudo concluiu que apenas 24% das pessoas conseguem. E seria de esperar que os resultados de um estudo deste tipo variassem muito, dependendo da qualidade do deepfake e da formação especializada do indivíduo; atualmente, muitos são verdadeiramente indistinguíveis ao olho humano.

Como são lançados os ataques de Face Swaps?

Os ataques de troca de rosto são efectuados através de técnicas de injeção digital para tentar falsificar um sistema de autenticação biométrica.

A ataque de injeção digital é quando um ataque é injetado numa aplicação ou numa ligação a um servidor de rede, contornando totalmente o sensor.

Um vídeo gravado pode ser apontado a uma câmara (o que é referido como um ataque de apresentação), mas não o classificaríamos como uma troca de rosto. Uma troca de rosto é a utilização de qualquer número de aplicações para aplicar uma falsa representação digital do rosto de uma pessoa (no todo ou em parte) e sobrepô-la à dos actores. Isto é feito por injeção digital.

Os ataques de injeção digital são o método de implementação mais perigoso porque são uma forma de ataque altamente escalável e replicável. Embora a Deteção de Ataques de Apresentação seja acreditada por organizações como a NIST FRVT e a iBeta, não existe nenhum teste deste tipo para a deteção de ataques de injeção digital, pelo que as organizações são aconselhadas a fazer a sua própria investigação sobre a forma como os fornecedores atenuam esta metodologia de ataque crescente e mantêm os utilizadores seguros de forma contínua.

As soluções de verificação biométrica do rosto devem defender-se contra os ataques de troca de rosto

À medida que cada vez mais actividades passam a estar em linha e os projectos de transformação digital e de identidade digital amadurecem, a necessidade de uma forte verificação e autenticação dos utilizadores só tende a aumentar de importância.

A verdade é que os métodos de verificação tradicionais não conseguiram manter os utilizadores seguros em linha. Não se pode confiar apenas nos dados para confirmar a identidade de uma pessoa. As palavras-passe podem ser decifradas, roubadas, perdidas ou partilhadas. As OTPs podem ser interceptadas. A verificação de chamadas de vídeo pode ser falsificada e depender de julgamento manual, que já não consegue distinguir com fiabilidade entre imagens genuínas e sintéticas.

Assim, a verificação biométrica do rosto surgiu como o único método seguro e conveniente de verificar a identidade do utilizador em linha. No entanto, o ponto crucial aqui é que nem todas as soluções de verificação biométrica facial são criadas da mesma forma.

As soluções biométricas diferenciam-se pela forma como conseguem estabelecer a vivacidade e proporcionar uma experiência de utilizador inclusiva (relativamente à idade, sexo, etnia, capacidade cognitiva, etc.). Para obter mais informações sobre a vivacidade e as diferentes tecnologias biométricas de verificação facial existentes no mercado, juntamente com os seus principais diferenciadores, leia o nosso ebook Desmistificando a verificação facial biométrica aqui.

Como salientámos neste artigo, existem sérias ameaças crescentes à segurança (tal como acontece com qualquer tecnologia de garantia de identidade). Ao escolher uma solução biométrica, deve estar ciente dos desafios em torno da segurança para poder empregar a tecnologia de verificação adequada.

Vejamos alguns dos principais factores a considerar especificamente ao escolher um fornecedor biométrico que se defenda contra as trocas de rosto:

  • Segurança contínua e em evolução: Dada a natureza transformadora da IA generativa e a escalabilidade dos ataques de injeção digital, a segurança biométrica deve aprender com as ameaças de forma contínua e ser gerida ativamente 24 horas por dia, 7 dias por semana.
  • Autenticação passiva: O nosso relatório sobre ameaças concluiu que os sistemas de verificação activos e baseados em movimentos - que testam movimentos como sorrir, acenar com a cabeça e piscar os olhos como indicadores de vivacidade - foram mais frequentemente alvo de ataques de troca de rosto. Isto acontece porque os ataques avançados de imagens sintéticas, como as trocas de rosto, podem executar acções em tempo real, contornando os sistemas activos e tornando-os mais susceptíveis à ameaça crescente. Por isso, recomenda-se a utilização de sistemas biométricos passivos.
  • Proteção contra ataques de injeção digital: Embora muitas soluções de deteção de vivacidade possam detetar ataques de apresentação ou repetição que são apresentados à câmara, a maioria não consegue detetar ataques que tenham sido injectados digitalmente num sistema. A atenuação de ataques de injeção digital é essencial.

Novos ataques de troca de rosto e verificação biométrica de rosto: Um resumo

A tecnologia para criar deepfakes está continuamente a ficar melhor, mais barata e mais facilmente disponível. É por isso que a proteção contra deepfake se tornará cada vez mais crucial à medida que a ameaça de deepfake cresce e mais pessoas tomam consciência dos perigos.

As organizações precisam de avaliar as suas soluções de verificação para resiliência face a ataques complexos como as trocas de rosto. Para obter mais informações sobre trocas de rosto e o cenário de ameaças em evolução, leia nosso relatório mais recente, o "Relatório de Inteligência sobre Ameaças iProov 2024: O impacto da IA generativa na verificação remota de identidade". No interior, iluminamos os principais padrões de ataque testemunhados ao longo de 2023. O primeiro de seu tipo, ele destaca padrões de ataques biométricos em produção anteriormente desconhecidos, ajudando as organizações a tomar decisões informadas sobre qual tecnologia e qual nível de segurança implantar. Leia o relatório completo aqui.

Novos ataques de troca de rosto