24 de abril de 2026
Tudo começou com um anúncio de aluguel.
Em Amsterdã, alguém anunciou um apartamento no Marktplaats, uma das plataformas de classificados mais populares da Holanda. Os possíveis inquilinos responderam com os documentos habituais: uma cópia do passaporte, um holerite – prova de que tinham condições de pagar o aluguel. Só que o apartamento não existia, e seus documentos de identidade estavam prestes a ser usados contra eles.
Um homem de 34 anos usou essas identidades roubadas – juntamente com outras obtidas nas redes sociais – para abrir 46 contas bancárias fraudulentas no ABN AMRO, um dos maiores bancos da Holanda. Ele fez tudo isso exclusivamente por meio do fluxo de cadastro móvel do banco, que exigia que os candidatos enviassem um documento de identidade com foto e tirassem uma selfie para verificação facial.
O truque era simples. Ele usou tecnologia deepfake para criar imagens semelhantes às fotos de passaporte dos documentos de identidade roubados. O sistema automatizado comparou as duas imagens, encontrou uma correspondência e aprovou a conta.
Não uma vez, mas quarenta e seis vezes.
Como o esquema de deepfake foi desmascarado
O esquema funcionou durante meses até que um único erro o denunciou. Um dos pedidos utilizava o documento de identidade com foto de uma mulher, mas a selfie mostrava o rosto de um homem. O deepfake havia sobreposto as características dela — os olhos e a boca — ao rosto dele, mas não de forma suficientemente convincente. A equipe do ABN AMRO identificou a anomalia, investigou e descobriu toda a extensão da fraude.
Quando a polícia de fronteira interceptou o suspeito em um posto de controle, as provas eram contundentes. Os policiais o flagraram apagando o Telegram do celular. No carro dele: envelopes contendo cartões de débito e senhas de várias contas do ABN AMRO, dezenas de documentos de identidade falsos e históricos de bate-papo com o ChatGPT nos quais ele havia perguntado como contornar a segurança do banco. Imagens de CFTV mostraram-no depositando grandes quantias em dinheiro nas contas fraudulentas – transações que, segundo os promotores, estavam ligadas à lavagem de dinheiro.
O Ministério Público solicitou uma pena de prisão de 30 meses e uma indenização de € 6.240 a favor do ABN AMRO. Em março de 2026, o Tribunal Distrital de Amsterdã ordenou uma investigação mais aprofundada em vez de proferir um veredicto.O réu permanece em prisão preventiva, enquanto uma nova audiência está marcada para dentro de três meses.
Por que as verificações de KYC falharam?
Este caso reflete uma tendência mais ampla: ferramentas tradicionais de IA, cada vez mais acessíveis, estão derrotando sistematicamente soluções de verificação de identidade .
Assim que uma identidade fraudulenta entra no perímetro do Know Your Customer (KYC) , ela pode ser usada para lavagem de dinheiro, financiamento do terrorismo, evasão de sanções e muito mais. O impacto financeiro não se limita a perdas diretas; as consequências regulatórias muitas vezes as superam:
- O TD Bank foi multado em US$ 3,09 bilhões em 2024 por falhas na prevenção da lavagem de dinheiro.
- Somente no primeiro semestre de 2025, os órgãos reguladores aplicaram US$ 1,23 bilhão em multas financeiras, um aumento de 417% em relação ao ano anterior.
O ABN AMRO detectou 46 contas. A questão é: quantas outras não foram detectadas?
Fluxo de integração do processo de cadastro seguiu um padrão comum no setor bancário europeu: enviar um documento de identidade com foto, tirar uma selfie e deixar o sistema comparar as duas imagens. Isso pressupõe que, se o rosto na selfie corresponder ao do documento, a pessoa é quem afirma ser. Essa suposição desmorona no momento em que um fraudador consegue gerar um rosto sintético que combina sua própria aparência com a foto de identidade de outra pessoa.
E está ficando cada vez mais fácil a cada mês. A IA generativa derrubou a barreira de entrada para ataques de identidade sintética: o que antes exigia habilidades especializadas e hardware de ponta agora pode ser executado com ferramentas baratas e prontas para uso. O Relatório de Inteligência de Ameaças de 2026 documentou um aumento de 1.151% em relação ao ano anterior nos ataques de injeção no iOS no segundo semestre de 2025. O iOS foi considerado por muito tempo a plataforma móvel mais segura; essa suposição não se sustenta mais. Para bancos que realizam cadastro prioritariamente por dispositivos móveis em qualquer sistema operacional, a implicação é a mesma: se o sistema de verificação não conseguir detectar um vídeo manipulado no momento da captura, ele o aprovará.
O caso do ABN AMRO ilustra o motivo. O sistema verificou que um rosto correspondia a um documento, mas não verificou se o rosto era real.
A camada que faltava: detecção de atividade que realmente funciona
A principal lacuna no fluxo de integração do ABN AMRO era a ausência de detecção de vitalidade. Sem ela, o sistema não tinha como distinguir um rosto humano genuíno de uma imagem manipulada digitalmente.
Os sistemas robustos não se limitam a comparar rostos. Eles verificam se há uma pessoa real presente no momento da captura. Um desafio passivo, aleatório e único no momento da autenticação e modelos de aprendizado profundo que aprendem progressivamente com vetores de ataque em constante evolução. Quando feito corretamente, isso confirma três coisas simultaneamente: que o usuário é a pessoa certa, uma pessoa real e que está se autenticando em tempo real.
Essa abordagem detecta os três principais vetores de ataque:
- Ataques de apresentação consistem em mostrar uma foto, um vídeo ou uma máscara para a câmera.
- Ataques de injeção digital injectam um deepfake diretamente no fluxo de verificação, contornando totalmente a câmera. Esse é o tipo de ataque mais urgente e escalável.
- Ataques de repetição apresentam novamente dados biométricos capturados anteriormente, como uma gravação de uma sessão de verificação legítima, para se passar por um usuário real.
As reportagens sobre o caso do ABN AMRO não especificam o método técnico exato utilizado. Mas, independentemente de as selfies manipuladas terem sido enviadas ou inseridas, o resultado é o mesmo: uma verificação de correspondência facial não consegue distinguir uma rosto sintético de um rosto real. É para impedir isso que a detecção de vida foi projetada.
Atualmente, existem padrões de referência independentes que os compradores devem esperar que os fornecedores cumpram, incluindo:
- Nível Alto da norma CEN/TS 18099 e Nível 4 de detecção de ataques por injeção do Ingenium para resistência a ataques de injeção
- e NIST SP 800-63-4, que em 2025 tornou a detecção de ataques por injeção um objetivo de controle obrigatório para níveis de garantia mais elevados. As alegações dos fornecedores sem testes independentes e acreditados em relação a essas normas não são prova de resiliência. São apenas marketing.
Se o processo de cadastro do ABN AMRO tivesse incluído esse tipo de verificação, as selfies manipuladas pelo fraudador teriam sido sinalizadas não porque o rosto não correspondesse ao documento de identidade, mas porque o próprio rosto não era real nem estava realmente presente.
Isto é não um caso isolado de fraude com deepfake
O caso do ABN AMRO é o mais recente de uma lista crescente de incidentes de fraude financeira envolvendo deepfakes.
Em abril de 2025, a polícia de Hong Kong prendeu oito pessoas envolvidas em uma quadrilha de fraudes baseada em deepfakes que havia usado 21 carteiras de identidade roubadas de Hong Kong para fazer 44 solicitações de contas bancárias, das quais cerca de 30 foram bem-sucedidas. O grupo inseriu seus próprios rostos nas fotos das identidades roubadas para burlar o reconhecimento facial, a mesma técnica usada contra o ABN AMRO, e as contas estavam ligadas a lavagem de dinheiro e abuso de crédito.
Isso representa uma mudança estrutural na forma como a fraude em novas contas – uma em que as ferramentas são baratas, as habilidades necessárias são mínimas e os sistemas de verificação nos quais a maioria dos bancos confia não foram criados para lidar com essa ameaça.
O que as instituições financeiras devem levar em consideração
- A engenharia social e a mídia sintética atuam em conjunto. O fraudador não se limitou a usar deepfakes. Ele utilizou um anúncio falso de aluguel para obter documentos de identidade genuínos de pessoas reais. Os sistemas de verificação precisam levar em conta o fato de que os documentos apresentados podem ser autênticos, mesmo quando a pessoa que os apresenta não é.
- A verificação estática não é suficiente. Uma verificação de identidade por selfie que utilize hoje as mesmas regras que utilizava no lançamento é um obstáculo a superar, não uma barreira à entrada. As instituições financeiras precisam de uma verificação que evolua contra novas técnicas de ataque, incluindo as ameaças impulsionadas por IA que crescem mais rapidamente.
A questão passou de se a fraude de KYC com deepfake afetará sua instituição, para quando, e se você vai detectá-la antes que 46 – ou milhares mais – contas sejam abertas em grande escala.
O fluxo de integração do ABN AMRO é comum no setor bancário. O mesmo ocorre, cada vez mais, com a vulnerabilidade que ele expôs. Veja como a tecnologia Dynamic Liveness da iProov detecta ataques de injeção, deepfakes e ataques de repetição que a comparação tradicional entre selfie e documento de identidade não consegue identificar. Agende sua demonstração ao vivo.
