24. April 2026
Alles begann mit einem Mietangebot.
In Amsterdam stellte jemand eine Wohnung auf „Marktplaats“, einer der beliebtesten Kleinanzeigenplattformen der Niederlande, ein. Interessierte Mieter schickten die üblichen Unterlagen: eine Kopie ihres Reisepasses, eine Gehaltsabrechnung – als Nachweis, dass sie die Miete bezahlen konnten. Nur gab es diese Wohnung gar nicht, und ihre Ausweisdokumente sollten bald missbraucht werden.
Ein 34-jähriger Mann nutzte diese gestohlenen Ausweisdaten – zusammen mit weiteren Daten, die er aus sozialen Medien gesammelt hatte –, um 46 betrügerische Bankkonten bei ABN AMRO, einer der größten Banken der Niederlande, zu eröffnen. Er nutzte dafür ausschließlich den mobilen Onboarding-Prozess der Bank, bei dem Antragsteller einen Lichtbildausweis hochladen und ein Selfie zur Gesichtsverifizierung.
Der Trick war ganz einfach. Er nutzte Deepfake-Technologie , um Bilder zu erstellen, die den Passfotos auf den gestohlenen Ausweisen ähnelten. Das automatisierte System verglich die beiden Bilder, stellte eine Übereinstimmung fest und genehmigte das Konto.
Nicht nur einmal, sondern sechsundvierzig Mal.
Wie sich der Deepfake-Betrug aufdeckte
Der Betrug lief monatelang, bevor ein einziger Fehler ihn auffliegen ließ. Bei einem Antrag wurde der Lichtbildausweis einer Frau verwendet, doch das Selfie zeigte das Gesicht eines Mannes. Der Deepfake hatte ihre Gesichtszüge – ihre Augen und ihren Mund – auf sein Gesicht übertragen, doch das Ergebnis war nicht überzeugend genug. Das Team von ABN AMRO machte auf die Unregelmäßigkeit aufmerksam, ging der Sache nach und deckte das gesamte Ausmaß des Betrugs auf.
Als die Grenzpolizei den Verdächtigen später an einer Kontrollstelle anhielt, waren die Beweise erdrückend. Die Beamten erwischten ihn dabei, wie er Telegram von seinem Handy löschte. In seinem Auto fanden sie Umschläge mit Debitkarten und PINs für mehrere ABN-AMRO-Konten, Dutzende gefälschte Ausweise sowie Chat-Protokolle mit ChatGPT, in denen er gefragt hatte, wie man die Sicherheitsvorkehrungen der Bank umgehen könne. Aufnahmen von Überwachungskameras zeigten, wie er große Bargeldsummen auf die betrügerischen Konten einzahlte – Transaktionen, die laut Staatsanwaltschaft mit Geldwäsche.
Die Staatsanwaltschaft beantragte eine Freiheitsstrafe von 30 Monaten und eine Entschädigung in Höhe von 6.240 € zugunsten von ABN AMRO. Im März 2026 ordnete das Amsterdamer Bezirksgericht ordnete weitere Ermittlungen an anstatt ein Urteil zu fällen.Der Angeklagte bleibt in Untersuchungshaft, während eine neue Verhandlung innerhalb von drei Monaten angesetzt ist.
Warum sind die KYC-Prüfungen fehlgeschlagen?
Dieser Fall spiegelt ein allgemeines Muster wider: Herkömmliche, immer leichter zugängliche KI-Tools schlagen schwächere Lösungen zur Identitätsprüfung .
Sobald eine betrügerische Identität in das System gelangt ist Know-Your-Customer-System (KYC) gelangt, kann sie für Geldkurierdienste, Geldwäsche, Terrorismusfinanzierung, die Umgehung von Sanktionen und vieles mehr genutzt werden. Die finanziellen Auswirkungen beschränken sich nicht auf direkte Verluste; die regulatorischen Folgen übertreffen diese oft bei weitem:
- Die TD Bank wurde 2024 mit einer Geldstrafe von 3,09 Milliarden Dollar belegt wegen Verstößen gegen die Geldwäschebekämpfungsvorschriften.
- Allein im ersten Halbjahr 2025 verhängten die Aufsichtsbehörden Geldstrafen in Höhe von 1,23 Milliarden Dollar, was einem Anstieg von 417 % gegenüber dem Vorjahr entspricht.
ABN AMRO hat 46 Konten aufgedeckt. Die Frage ist, wie viele andere nicht.
ABN AMROs Onboarding-Prozess folgte einem in europäischen Banken üblichen Muster: Hochladen eines Lichtbildausweises, Aufnehmen eines Selfies, Vergleich der beiden durch das System. Dabei wird davon ausgegangen, dass die Person die ist, für die sie sich ausgibt, wenn das Gesicht auf dem Selfie mit dem Ausweis übereinstimmt. Diese Annahme bricht in dem Moment zusammen, in dem ein Betrüger ein synthetisches Gesicht generieren kann, das sein eigenes Aussehen mit dem Passfoto einer anderen Person verbindet.
Und es wird von Monat zu Monat einfacher. Generative KI hat die Eintrittsbarriere für Angriffe mit synthetischen Identitäten: Was einst spezielle Fachkenntnisse und High-End-Hardware erforderte, lässt sich nun mit kostengünstigen, handelsüblichen Tools ausführen. iProovs Bericht zur Bedrohungslage 2026 dokumentierte in der zweiten Jahreshälfte 2025 einen Anstieg der iOS-Injektionsangriffe um 1.151 % gegenüber dem Vorjahr. iOS galt lange Zeit als die sicherere mobile Plattform; diese Annahme trifft nicht mehr zu. Für Banken, die auf einem beliebigen Betriebssystem ein „Mobile-First“-Onboarding betreiben, ist die Konsequenz dieselbe: Wenn das Verifizierungssystem manipulierte Videos zum Zeitpunkt der Erfassung nicht erkennen kann, wird es diese genehmigen.
Der Fall ABN AMRO verdeutlicht, warum. Das System stellte zwar fest, dass ein Gesicht mit einem Dokument übereinstimmte, überprüfte jedoch nicht, ob das Gesicht echt war.
Die fehlende Ebene: Eine funktionierende Lebendigkeitserkennung
Die entscheidende Lücke im Onboarding-Prozess von ABN AMRO war das Fehlen einer fortschrittlichen Lebendigkeitserkennung. Ohne diese Funktion hatte das System keine Möglichkeit, ein echtes menschliches Gesicht von einem digital manipulierten Bild zu unterscheiden.
Robuste Systeme vergleichen nicht nur Gesichter. Sie prüfen, ob zum Zeitpunkt der Erfassung eine echte Person anwesend ist. Eine passive, einmalige zufällige Abfrage zum Zeitpunkt der Authentifizierung sowie Deep-Learning-Modelle, die schrittweise aus sich weiterentwickelnden Angriffsvektoren lernen. Bei korrekter Umsetzung werden dadurch drei Dinge gleichzeitig bestätigt: dass der Benutzer die richtige Person ist, dass es sich um eine echte Person handelt und dass die Authentifizierung in Echtzeit erfolgt.
Dieser Ansatz erkennt die drei wichtigsten Angriffsvektoren:
- Präsentationsangriffe beinhalteten das Vorhalten eines Fotos, eines Videos oder einer Maske vor eine Kamera.
- Angriffe durch digitale Eingriffe speisen einen Deepfake direkt in die Verifizierungspipeline ein und umgehen dabei die Kamera vollständig. Dies ist die dringlichste und skalierbarste Art von Angriff.
- Replay-Angriffe legen zuvor erfasste biometrische Daten, wie beispielsweise die Aufzeichnung einer legitimen Verifizierungssitzung, erneut vor, um sich als echter Benutzer auszugeben.
In den öffentlichen Berichten zum Fall ABN AMRO wird die genaue technische Vorgehensweise nicht näher erläutert. Doch ganz gleich, ob die manipulierten Selfies hochgeladen oder eingefügt wurden – das Ergebnis ist dasselbe: Bei einer Gesichtserkennung lässt sich ein synthetisches Gesicht von einem echten unterscheiden. Genau das soll die Lebendigkeitserkennung verhindern.
Es gibt mittlerweile unabhängige Benchmarks, deren Erfüllung Käufer von den Anbietern erwarten sollten, darunter:
- CEN/TS 18099 Stufe „High“ und Ingenium-Erkennung von Injektionsangriffen Stufe 4 für Widerstandsfähigkeit gegen Injektionsangriffe
- und NIST SP 800-63-4, das im Jahr 2025 die Erkennung von Injektionsangriffen zu einem obligatorischen Kontrollziel für höhere Sicherheitsstufen machte. Herstellerangaben ohne unabhängige, akkreditierte Tests gemäß diesen Standards sind kein Beweis für Resilienz. Sie sind Marketing.
Hätte das Onboarding bei ABN AMRO eine solche Überprüfung vorgesehen, wären die manipulierten Selfies des Betrügers nicht deshalb als verdächtig markiert worden, weil das Gesicht nicht mit dem Ausweis übereinstimmte, sondern weil das Gesicht selbst nicht echt oder tatsächlich vorhanden war.
Das ist kein ein Einzelfall von Deepfake-Betrug
Der Fall ABN AMRO ist der jüngste in einer immer länger werdenden Liste von Finanzbetrugsfällen, die durch Deepfakes ermöglicht wurden.
Im April 2025 verhaftete die Polizei von Hongkong acht Personen, die einem Deepfake-Betrugsring angehörten , der 21 gestohlene Hongkonger Personalausweise verwendet hatte, um 44 Bankkonten zu beantragen, von denen etwa 30 erfolgreich waren. Die Gruppe fügte ihre eigenen Gesichter in die gestohlenen Ausweisfotos ein, um die Gesichtserkennung zu umgehen – dieselbe Technik, die auch gegen ABN AMRO eingesetzt wurde –, und die Konten standen im Zusammenhang mit Geldwäsche und Kreditmissbrauch.
Dies stellt einen strukturellen Wandel in der Art und Weise dar, wie Betrug bei der Eröffnung neuer Konten abläuft – eine, bei der die Werkzeuge kostengünstig sind, nur minimale Kenntnisse erforderlich sind und die Verifizierungssysteme, auf die sich die meisten Banken verlassen, nicht für diese Bedrohung ausgelegt sind.
Was Finanzinstitute daraus lernen sollten
- Social Engineering und synthetische Medien wirken zusammen. Der Betrüger hat nicht nur Deepfakes verwendet. Er nutzte eine gefälschte Mietanzeige, um echte Ausweisdokumente von realen Personen zu erlangen. Verifizierungssysteme müssen der Tatsache Rechnung tragen, dass die vorgelegten Dokumente authentisch sein können, auch wenn die Person, die sie vorlegt, es nicht ist.
- Eine statische Überprüfung reicht nicht aus. Eine Identitätsprüfung anhand von Selfies, die heute dieselben Regeln anwendet wie bei ihrer Einführung, ist eine Hürde, die es zu nehmen gilt, aber kein Eintrittsbarrieren. Finanzinstitute benötigen eine Verifizierung, die sich angesichts neuer Angriffstechniken weiterentwickelt, einschließlich der am schnellsten wachsenden KI-gesteuerten Bedrohungen.
Die Frage hat sich verlagert von „Ob Deepfake-gestützter KYC-Betrug Ihr Institut betreffen wird, hin zu wannund ob Sie ihn erkennen werden, bevor 46 – oder Tausende weitere – Konten in großem Umfang eröffnet werden.
Der Onboarding-Prozess von ABN AMRO ist in der Bankenbranche weit verbreitet. Das Gleiche gilt zunehmend auch für die Schwachstelle, die dadurch aufgedeckt wurde. Erfahren Sie, wie iProovs „Dynamic Liveness“-Technologie Injektionsangriffe, Deepfakes und Replay-Angriffe erkennt, die bei herkömmlichen Selfie-zu-Ausweis-Vergleichen unentdeckt bleiben. Buchen Sie Ihre Live-Demo.
