24 de abril de 2026
Tudo começou com um anúncio de arrendamento.
Em Amesterdão, alguém publicou um anúncio de um apartamento no Marktplaats, uma das plataformas de classificados mais populares dos Países Baixos. Os potenciais inquilinos responderam com os documentos habituais: uma cópia do passaporte, um recibo de vencimento – prova de que tinham condições para pagar a renda. Só que o apartamento não existia e os seus documentos de identidade estavam prestes a ser utilizados para fins ilícitos.
Um homem de 34 anos utilizou esses documentos de identificação roubados – juntamente com outros obtidos nas redes sociais – para abrir 46 contas bancárias fraudulentas no ABN AMRO, um dos maiores bancos da Holanda. Fê-lo inteiramente através do processo de abertura de conta móvel do banco, que exigia que os requerentes enviassem um documento de identificação com fotografia e tirassem uma selfie para verificação facial.
O truque era simples. Ele utilizou tecnologia deepfake para criar imagens semelhantes às fotos de passaporte dos documentos de identidade roubados. O sistema automatizado comparou as duas imagens, encontrou uma correspondência e aprovou a conta.
Não uma vez, mas quarenta e seis vezes.
Como o esquema de deepfakes foi desmascarado
O esquema funcionou durante meses até que um único erro o denunciou. Um dos pedidos utilizava o documento de identificação com fotografia de uma mulher, mas a selfie mostrava um rosto masculino. O deepfake tinha sobreposto as características faciais dela — os olhos e a boca — ao rosto dele, mas não de forma suficientemente convincente. A equipa do ABN AMRO detetou a anomalia, investigou e descobriu a verdadeira dimensão da fraude.
Quando a polícia de fronteira interceptou posteriormente o suspeito num posto de controlo, as provas eram contundentes. Os agentes apanharam-no a eliminar o Telegram do telemóvel. No seu carro: envelopes contendo cartões de débito e códigos PIN de várias contas do ABN AMRO, dezenas de documentos de identificação falsos e históricos de conversas com o ChatGPT, nas quais ele tinha perguntado como contornar a segurança do banco. Imagens de CCTV mostraram-no a depositar grandes quantias de dinheiro nas contas fraudulentas – transações que, segundo os procuradores, estavam ligadas à lavagem de dinheiro.
O Ministério Público solicitou uma pena de prisão de 30 meses e uma indemnização de 6 240 € a favor do ABN AMRO. Em março de 2026, o Tribunal Distrital de Amesterdão ordenou a realização de mais investigações em vez de proferir um veredicto.O arguido permanece em prisão preventiva, estando marcada uma nova audiência para dentro de três meses.
Por que razão falharam as verificações KYC?
Este caso reflete uma tendência mais ampla: as ferramentas tradicionais de IA, cada vez mais acessíveis, estão a superar sistematicamente soluções de verificação de identidade .
Assim que uma identidade fraudulenta entra no perímetro do Know Your Customer (KYC) , pode ser utilizada para lavagem de dinheiro, financiamento do terrorismo, evasão de sanções e muito mais. O impacto financeiro não se limita às perdas diretas; as consequências regulatórias muitas vezes superam-nas:
- O TD Bank foi multado em 3,09 mil milhões de dólares em 2024 por falhas na prevenção da lavagem de dinheiro.
- Só no primeiro semestre de 2025, as entidades reguladoras aplicaram 1,23 mil milhões de dólares em sanções financeiras, um aumento de 417% em relação ao ano anterior.
O ABN AMRO detetou 46 contas. A questão é: quantas outras não foram detetadas?
O processo de integração seguiu um padrão comum no setor bancário europeu: carregar um documento de identificação com fotografia, tirar uma selfie e deixar que o sistema compare as duas imagens. Isto pressupõe que, se o rosto na selfie corresponder ao do documento, a pessoa é quem afirma ser. Essa suposição desmorona-se no momento em que um fraudador consegue gerar um rosto sintético que combina a sua própria aparência com a fotografia de identificação de outra pessoa.
E está a tornar-se cada vez mais fácil a cada mês que passa. A IA generativa eliminou as barreiras à entrada para ataques de identidade sintética: o que antes exigia competências especializadas e hardware de ponta pode agora ser executado com ferramentas baratas e disponíveis no mercado. O Relatório de Inteligência de Ameaças de 2026 da iProov registou um aumento de 1151% em relação ao ano anterior nos ataques de injeção no iOS no segundo semestre de 2025. O iOS foi durante muito tempo considerado a plataforma móvel mais segura; essa suposição já não se mantém. Para os bancos que implementam um processo de integração com prioridade móvel em qualquer sistema operativo, a implicação é a mesma: se o sistema de verificação não conseguir detetar vídeo manipulado no momento da captura, irá aprová-lo.
O caso do ABN AMRO ilustra bem o motivo. O sistema verificou que um rosto correspondia ao de um documento, mas não verificou se o rosto era real.
A camada que faltava: deteção de atividade que funciona
A lacuna crítica no fluxo de integração do ABN AMRO era a ausência de detecção de vitalidade. Sem ela, o sistema não tinha como distinguir um rosto humano genuíno de uma imagem manipulada digitalmente.
Os sistemas robustos não se limitam a comparar rostos. Eles verificam se existe uma pessoa real no momento da captura. Um desafio passivo, aleatório e único no momento da autenticação e modelos de aprendizagem profunda que aprendem progressivamente com vetores de ataque em evolução. Quando feito corretamente, confirma três coisas simultaneamente: que o utilizador é a pessoa certa, uma pessoa real e que está a autenticar-se em tempo real.
Esta abordagem deteta os três principais vetores de ataque:
- Ataques de apresentação consistem em mostrar uma fotografia, um vídeo ou uma máscara à câmara.
- Ataques de injeção digital introduzem um deepfake diretamente no fluxo de verificação, contornando completamente a câmara. Este é o tipo de ataque mais urgente e escalável.
- Ataques de repetição apresentam novamente dados biométricos capturados anteriormente, como uma gravação de uma sessão de verificação legítima, para se fazerem passar por um utilizador real.
As notícias publicadas sobre o caso ABN AMRO não especificam o método técnico exato utilizado. Mas, quer as selfies manipuladas tenham sido carregadas ou inseridas, o resultado é o mesmo: uma verificação de correspondência facial não consegue distinguir uma rosto sintético de um rosto real. É isso que a deteção de vida tem como objetivo impedir.
Existem agora critérios de referência independentes que os compradores devem esperar que os fornecedores cumpram, incluindo:
- Nível Elevado da norma CEN/TS 18099 e Nível 4 de deteção de ataques por injeção da Ingenium para resistência a ataques de injeção
- e NIST SP 800-63-4, que em 2025 tornou a deteção de ataques por injeção um objetivo de controlo obrigatório para níveis de garantia mais elevados. As alegações dos fornecedores sem testes independentes e acreditados em conformidade com estas normas não constituem prova de resiliência. São apenas marketing.
Se o processo de integração do ABN AMRO tivesse incluído este tipo de verificação, as selfies manipuladas pelo fraudador teriam sido sinalizadas, não porque o rosto não correspondesse ao documento de identificação, mas porque o próprio rosto não era real nem estava genuinamente presente.
Isto é não um caso isolado de fraude com deepfakes
O caso do ABN AMRO é o mais recente de uma lista crescente de incidentes de fraude financeira envolvendo deepfakes.
Em abril de 2025, a polícia de Hong Kong deteve oito pessoas pertencentes a um grupo de fraude baseado em deepfakes que tinha utilizado 21 cartões de identidade roubados de Hong Kong para efetuar 44 pedidos de abertura de contas bancárias, dos quais cerca de 30 foram bem-sucedidos. O grupo sobrepor os seus próprios rostos às fotografias dos cartões de identidade roubados para contornar o reconhecimento facial, a mesma técnica utilizada contra o ABN AMRO, e as contas estavam ligadas a lavagem de dinheiro e abuso de crédito.
Isto representa uma mudança estrutural na forma como a fraude em novas contas – em que as ferramentas são baratas, as competências necessárias são mínimas e os sistemas de verificação em que a maioria dos bancos confia não foram concebidos para esta ameaça.
O que as instituições financeiras devem reter
- A engenharia social e os meios de comunicação sintéticos funcionam em conjunto. O fraudador não se limitou a utilizar deepfakes. Recorreu a um anúncio de arrendamento falso para obter documentos de identidade genuínos de pessoas reais. Os sistemas de verificação têm de ter em conta o facto de que os documentos apresentados podem ser autênticos, mesmo quando a pessoa que os apresenta não o é.
- A verificação estática não é suficiente. Uma verificação de identidade por selfie que utilize hoje as mesmas regras que utilizava no lançamento é um obstáculo a ultrapassar, não uma barreira à entrada. As instituições financeiras precisam de uma verificação que evolua face às novas técnicas de ataque, incluindo as ameaças impulsionadas pela IA que crescem mais rapidamente.
A questão passou de se a fraude KYC com deepfakes irá afetar a sua instituição, para quando, e se a conseguirá detetar antes que 46 – ou milhares mais – contas sejam abertas em grande escala.
O processo de integração do ABN AMRO é comum no setor bancário. O mesmo se aplica, cada vez mais, à vulnerabilidade que este processo expôs. Veja como a tecnologia Dynamic Liveness da iProov deteta os ataques de injeção, deepfakes e ataques de repetição que a comparação tradicional entre selfies e documentos de identificação não consegue detetar. Marque a sua demonstração ao vivo.
