11 de janeiro de 2024

A verificação remota da identidade é um dos desafios mais prementes da nossa era cada vez mais digital. Confirmar a identidade de uma pessoa sem a ver fisicamente, em pessoa, é uma necessidade que continua a crescer tanto em importância como em dificuldade.

Entre as ameaças mais insidiosas à verificação remota da identidade está a utilização de deepfakes criados por IA generativa. As deepfakes não são intrinsecamente prejudiciais, mas podem representar ameaças significativas à segurança. Uma vez que é agora impossível distinguir de forma fiável entre imagens sintéticas e imagens reais com o olho humano, a biometria alimentada por IA surgiu como a defesa mais robusta contra as deepfakes - e, por conseguinte, o único método fiável de verificação remota da identidade. De facto, combatê-las exige uma investigação contínua e soluções de missão crítica com uma segurança em evolução. As pessoas também valorizam a conveniência da verificação biométrica facial - 72% dos consumidores em todo o mundo preferem a verificação facial para a segurança online.

No entanto, à medida que a tecnologia biométrica avança, os agentes maliciosos procuram métodos novos e mais sofisticados para comprometer estes sistemas. É importante lembrar, no entanto, que os deepfakes não são uma ameaça à segurança biométrica - são uma ameaça a qualquer método de verificação remota da identidade de um ser humano.

A ameaça Deepfake: Um olhar sobre a ascensão da tecnologia Deepfake

No início, os deepfakes eram apenas diversão inofensiva, com pessoas a criar vídeos e imagens para fins de entretenimento. No entanto, quando combinados com intenções maliciosas e ferramentas de ataque cibernético, transformam-se rapidamente em ameaças sinistras. Os deepfakes tornaram-se rapidamente uma forma muito poderosa de lançar ataques de cibersegurança, espalhar notícias falsas e influenciar a opinião pública. Provavelmente já se deparou com um deepfake sem sequer se aperceber.

A tecnologia Deepfake envolve a utilização de ferramentas como imagens geradas por computador (CGI) e inteligência artificial para alterar a aparência e o comportamento de alguém. Os algoritmos de aprendizagem automática trabalham para gerar conteúdo sintético altamente realista para imitar comportamentos humanos, incluindo expressões faciais e discurso. Quando utilizada de forma maliciosa, esta tecnologia pode ser empregue para criar identidades falsas, imitar pessoas e obter acesso a locais seguros, por exemplo.

Devido à sofisticação da tecnologia, o conteúdo deepfake parece muitas vezes altamente realista para humanos treinados e até mesmo para algumas soluções de verificação de identidade, tornando difícil discernir o genuíno do sintético. O ritmo de evolução rápida da IA significa que os deepfakes também estão em constante evolução - não são uma ameaça estática.

Deteção de Deepfake: As provas estabelecem que os seres humanos não conseguem detetar com fiabilidade as falsificações profundas

Compilámos uma lista de estudos que destacam o facto de os humanos não serem um indicador fiável para detetar deepfakes:

  • Um estudo de 2021 intitulado "Deepfake detection by human crowds, machines, and machine-informed crowds" concluiu que as pessoas sozinhas são muito piores do que os algoritmos de deteção. Os algoritmos de deteção até superaram os examinadores forenses, que são muito mais qualificados na tarefa do que a pessoa média. O estudo também não encontrou provas de que a educação/formação melhore o desempenho.
  • Outro estudo de 2021, intitulado "Fooled twice: People cannot detect deepfakes but think they can", concluiu que as pessoas são menos capazes de identificar deepfakes do que pensam; que as pessoas não são fiáveis na deteção de conteúdos de vídeo manipulados; que a formação e os incentivos não aumentam a capacidade; que as pessoas têm uma tendência para uma taxa de falsa rejeição; e, por último, que as pessoas são particularmente susceptíveis de serem influenciadas por conteúdos deepfake.
  • Em 2022, um grupo de investigadores de segurança descobriu que a verificação de chamadas de vídeo pessoa-a-pessoa podia ser facilmente ultrapassada com software de SO e aguarela (ou seja, manipulação de arte digital). Isto mostra que os sistemas de identificação por vídeo de operadores humanos são facilmente ultrapassados com abordagens básicas do quotidiano e muito pouca perícia - por vezes, nem sequer são necessários deepfakes para enganar os humanos.

Veja se consegue detetar um deepfake no nosso teste interativo!

Como os deepfakes ameaçam toda a verificação de identidade online

Para verificar a identidade remotamente de forma fiável, terá de ver a pessoa e o respetivo documento de identificação. A verificação por videochamada - por vezes conhecida como identificação por vídeo - refere-se ao processo de falar com uma pessoa em direto através de um software de videochamada para provar a sua identidade. Mas é uma opção indesejável - sobretudo porque é inconveniente, trabalhosa e dispendiosa, e não pode ser automatizada (logo, é mais difícil de escalar).

De qualquer forma, as falsificações profundas podem ser injectadas numa transmissão de vídeo em direto, pelo que constituem uma ameaça ainda mais crítica para a verificação de vídeo. Como já estabelecemos, os humanos são menos fiáveis na deteção de deepfakes do que a biometria. É por isso que alertamos as organizações para se lembrarem que os deepfakes e outras formas de IA generativa não são um "problema biométrico"; são um problema de verificação de identidade remota.

A verificação remota da identidade é fundamental para a maioria das organizações que efectuam negócios online. Em muitos casos, não é negociável. Contra a ameaça de deepfakes, as organizações devem utilizar a IA para o bem da cibersegurança (ou seja, biometria alimentada por IA).

Não posso verificar os utilizadores com outro método biométrico, para evitar totalmente as falsificações profundas?

De seguida, pode perguntar-se: "porque é que outros métodos biométricos não são uma alternativa adequada para a verificação de identidade? Não se pode simplesmente utilizar a autenticação da íris ou da voz, para não ter de lidar com deepfakes?"

A verificação biométrica do rosto surgiu especificamente como o único método fiável de verificação remota da identidade porque:

  • Outros métodos biométricos não podem verificar a identidade. Apenas a podem autenticar. Isto deve-se ao facto de a voz, a íris, etc., não constarem geralmente de nenhum dos documentos de identificação (ao contrário do rosto). Assim, não há nada de fiável para verificar os dados biométricos - nenhuma fonte de verdade. É possível em casos raros - talvez uma organização tenha acesso a dados oficiais de impressões digitais, por exemplo. Mas não é escalável como é a verificação facial. O mesmo se aplica aos métodos tradicionais, como as palavras-passe e as OTP, que não conseguiram manter os utilizadores seguros em linha. Não se pode ter 100% de certeza da identidade de alguém só porque essa pessoa sabe algo (uma palavra-passe) ou possui algo (um telemóvel com um código).
  • A clonagem baseada em IA é uma ameaça para todos os métodos biométricos. A voz, por exemplo, é considerada a biometria mais fácil de clonar. Pode ler mais sobre a ameaça da clonagem de voz neste artigo e sobre as desvantagens da biometria vocal aqui.

Proteção contra ataques Deepfake

Quando falamos da ameaça das falsificações profundas, é para sublinhar a importância de uma solução de verificação facial robusta para nos defendermos contra elas e para educar as organizações sobre as diferenças consequentes entre as soluções disponíveis.

Como o Gartner Market Guide de 2023 afirma, "os líderes de segurança e gestão de riscos devem fazer da deteção de deepfake um requisito fundamental e devem desconfiar de qualquer fornecedor que não esteja a discutir proactivamente as suas capacidades".

Para atenuar os riscos associados aos ataques de deepfake aos sistemas biométricos, podem ser adoptadas várias medidas:

  • Biometria multimodal: A combinação de vários métodos biométricos, como a verificação facial e a leitura de impressões digitais, pode aumentar a segurança, dificultando aos atacantes a falsificação simultânea de várias modalidades.
  • Deteção de vivacidade: A implementação de verificações de deteção de vivacidade com base científica pode ajudar a diferenciar entre dados biométricos reais e representações sintéticas, como deepfakes que não têm sinais vitais de vida. Saiba mais sobre a tecnologia de vivacidade aqui.
  • Monitorização contínua: Os sistemas biométricos devem incorporar monitorização contínua e deteção de anomalias para identificar padrões ou comportamentos invulgares que possam indicar um ataque de deepfake. As organizações têm de adotar técnicas avançadas que se adaptem ao cenário cada vez mais acelerado das ciberameaças (e não as que se baseiam em defesas estáticas - a solução é um serviço em evolução e não um software).

As soluções biométricas técnicas, como a deteção de vida baseada na ciência e a inteligência ativa contra ameaças, assumirão um papel central na identificação de meios sintéticos. No entanto, a investigação humana e as capacidades de pensamento crítico continuam a ser essenciais quando se trata de identificar potenciais ameaças. A solução definitiva reside na combinação dos pontos fortes dos humanos e da automatização para criar uma solução infalível - como faz o iProov, utilizando a nossa verificação biométrica de missão crítica com as nossas capacidades iSOC.

A questão de "como podemos ter a certeza da identidade de alguém em linha?" é um tema extremamente importante e sério, e não está a desaparecer.

Saiba mais sobre como o iProov se defende especificamente contra deepfakes nesta publicação do blogue e leia o nosso relatório, Deepfakes: A Nova Fronteira do Crime Online.

Como as falsificações profundas ameaçam os sistemas de verificação remota da identidade