2. August 2023
In den letzten Jahren hat iProov einen enormen Anstieg bei einer neuartigen Art des Gesichtstauschs beobachtet. Diese Art ist wesentlich fortschrittlicher als herkömmliche Gesichtstausche - sie sind dreidimensional und widerstandsfähiger gegen etablierte Erkennungsmethoden. Unser Threat Intelligence Report hat ergeben, dass die Häufigkeit dieser neuartigen Bedrohung exponentiell zugenommen hat - von H1 auf H2 um 295 %.
Böswillige Akteure nutzen ausgeklügelte generative KI-Technologien, um Angriffe zu entwickeln und zu starten, mit denen sie versuchen, die Sicherheitssysteme von Organisationen auszunutzen und Einzelpersonen zu betrügen. Daher sind wir der Meinung, dass das Bewusstsein und das Verständnis für Deepfake-Technologien erweitert und breiter diskutiert werden muss, um diesen Bemühungen entgegenzuwirken. Ohne Einblick in die Bedrohungslandschaft wird es für Unternehmen schwierig sein, die richtige Verifizierungstechnologie einzusetzen, um sich dagegen zu schützen.
In diesem Artikel wird erklärt, was Face Swaps sind, warum sie so besonders gefährlich sind, und es werden Lösungen für die wachsende Bedrohung diskutiert.
Was sind Face Swaps?
Face Swaps sind eine Art von synthetischen Bildern, die aus zwei Eingaben erstellt werden. Sie kombinieren vorhandene Video- oder Livestreams und überlagern in Echtzeit eine andere Identität mit dem ursprünglichen Feed.
Das Endergebnis ist eine gefälschte 3D-Videoausgabe, die aus mehreren Gesichtern zusammengesetzt ist.
Zusammenfassend lässt sich der Austausch von Gesichtern auf einen 3-stufigen Prozess zurückführen:
- Eingang eins ist ein Video des Angreifers
- Eingabe zwei ist ein Video der Zielidentität, für die sie sich auszugeben versuchen
- Die Software fügt die beiden oben genannten Eingaben zu einer endgültigen Ausgabe zusammen, nämlich einem gefälschten 3D-Video einer Zielperson.
Ein Gesichtsabgleicher ohne angemessene Schutzmaßnahmen würde die Ausgabe als die echte Person identifizieren. Das Endergebnis wird in etwa so aussehen:
Ein Gesichtstausch angreifen bezieht sich speziell auf die Verwendung der oben genannten synthetischen Bilder in Verbindung mit einer gewählten Einsatzmethode (z. B. Man-in-the-Middle oder Kameraumgehung), um einen gezielten Angriff auf ein System oder eine Organisation zu starten.
Warum sollten Sie über Face-Swap-Angriffe besorgt sein?
Kriminelle können den Gesichtstausch nutzen, um Straftaten wie den Betrug mit neuen Konten, die Übernahme von Konten oder den Betrug mit synthetischen Identitäten zu begehen . Sie können sich vorstellen, wie effektiv ein Gesichtstausch bei einer Online-Identitätsprüfung sein kann, da ein Betrüger die Aktionen des ausgegebenen Gesichts nach Belieben steuern kann. Face Swaps sind besonders einzigartig, weil sie in Echtzeit eingesetzt werden können.
Stellen Sie sich Folgendes vor: Ein Betrüger muss eine Überprüfung von Videoanrufen bestehen. Ein herkömmliches voraufgezeichnetes oder 2D-Deefake wäre hier nutzlos, da es nicht zur Beantwortung von Fragen in Echtzeit verwendet werden kann. Mit einem Live-Gesichtstausch könnte ein Krimineller jedoch die Verifizierung eines Videoanrufs abschließen, indem er seine eigenen Handlungen (und sogar seine Sprache) mit einer anderen Eingabe der echten Person, die er vorgibt zu sein, morpht - und so letztlich eine synthetische Ausgabe erzeugt, um den Verifizierungsprozess zu täuschen.
Betrachten wir einige zusätzliche Probleme im Zusammenhang mit neuartigen Face-Swap-Angriffen:
- Face-Swap-Angriffe werden immer häufiger: Allein von H1 auf H2 im Jahr 2022 ist ein Anstieg um 295 % zu verzeichnen. Diese Wachstumsrate deutet darauf hin, dass gering qualifizierte Kriminelle Zugang zu den erforderlichen Ressourcen erhalten, um ausgeklügelte Angriffe zu starten.
- Crime-as-a-Service nimmt zu: Die Verfügbarkeit von Online-Tools beschleunigt die Entwicklung der Bedrohungslandschaft. Dies ermöglicht es Kriminellen, fortgeschrittene Angriffe schneller und in größerem Umfang durchzuführen. Wenn Angriffe erfolgreich sind, nehmen sie rasch an Umfang und Häufigkeit zu, da sie in etablierten Crime-as-a-Service-Netzen oder im Darkweb verbreitet werden, wodurch sich das Risiko eines schweren Schadens erhöht.
- Manuelle Eingriffe sind nicht mehr wirksam: Obwohl 57 % der Verbraucher weltweit glauben, dass sie ein Deepfake erfolgreich erkennen können, ergab eine Studie, dass nur 24 % der Menschen dies können. Und wir würden erwarten, dass die Ergebnisse einer solchen Studie je nach Qualität des Deepfakes und der speziellen Ausbildung des Einzelnen stark variieren würden; viele sind heute für das menschliche Auge wirklich nicht mehr zu unterscheiden.
Wie werden Face-Swap-Angriffe gestartet?
Face-Swap-Angriffe werden durch digitale Injektionstechniken durchgeführt, um ein biometrisches Authentifizierungssystem zu fälschen.
A digitaler Injektionsangriff ist ein Angriff, bei dem ein Angriff in eine Anwendungs- oder Netzwerkserververbindung injiziert wird, wobei der Sensor vollständig umgangen wird.
Ein aufgezeichnetes Video könnte vor eine Kamera gehalten werden (was als Präsentationsangriff bezeichnet wird), aber wir würden dies nicht als einen Gesichtstausch einstufen. Ein Face-Swap ist die Verwendung einer beliebigen Anzahl von Anwendungen, um eine falsche digitale Darstellung des Gesichts einer Person (ganz oder teilweise) über das der Schauspieler zu legen. Dies geschieht durch digitale Injektion.
Digitale Injektionsangriffe sind die gefährlichste Bereitstellungsmethode, da sie eine hochgradig skalierbare und replizierbare Form des Angriffs darstellen. Während Presentation Attack Detection von Organisationen wie NIST FRVT und iBeta akkreditiert ist, gibt es keine derartigen Tests für die Erkennung von Digital-Injection-Attacken - daher sollten Unternehmen selbst recherchieren, wie Anbieter diese wachsende Angriffsmethode abschwächen und die Benutzer kontinuierlich schützen können.
Biometrische Lösungen zur Gesichtsüberprüfung müssen gegen Face-Swap-Angriffe geschützt werden
Mit der zunehmenden Verlagerung von Aktivitäten ins Internet und der Reifung von Projekten zur digitalen Transformation und digitalen Identität wird die Notwendigkeit einer starken Benutzerüberprüfung und -authentifizierung immer wichtiger werden.
Die Wahrheit ist, dass herkömmliche Überprüfungsmethoden versagt haben, um die Sicherheit der Nutzer im Internet zu gewährleisten. Man kann sich nicht allein auf Daten verlassen, die bestätigen, wer jemand ist. Passwörter können geknackt, gestohlen, verloren oder weitergegeben werden. OTPs können abgefangen werden. Die Verifizierung von Videoanrufen kann gefälscht werden und beruht auf einer manuellen Beurteilung, die nicht mehr zuverlässig zwischen echten und synthetischen Bildern unterscheiden kann.
Daher hat sich die biometrische Gesichtsverifikation als die einzige sichere und bequeme Methode zur Online-Überprüfung der Benutzeridentität erwiesen. Der springende Punkt ist jedoch, dass nicht alle Lösungen zur biometrischen Gesichtsverifizierung gleich sind.
Biometrische Lösungen unterscheiden sich darin, wie erfolgreich sie die Echtheit des Gesichts feststellen und ein integratives Benutzererlebnis bieten können (in Bezug auf Alter, Geschlecht, ethnische Zugehörigkeit, kognitive Fähigkeiten usw.). Weitere Informationen über die Echtheit des Gesichts und die verschiedenen auf dem Markt befindlichen biometrischen Gesichtsverifizierungstechnologien sowie ihre wichtigsten Unterscheidungsmerkmale finden Sie in unserem E-Book Demystifying Biometric Face Verification.
Wie wir in diesem Artikel hervorgehoben haben, gibt es ernsthafte und wachsende Sicherheitsbedrohungen (wie bei jeder Technologie zur Identitätssicherung). Wenn Sie sich für eine biometrische Lösung entscheiden, müssen Sie sich der Herausforderungen im Zusammenhang mit der Sicherheit bewusst sein, damit Sie die geeignete Verifizierungstechnologie einsetzen können.
Betrachten wir einige der Schlüsselfaktoren, die bei der Auswahl eines biometrischen Anbieters, der gegen Gesichtsvertauschungen schützt, besonders zu berücksichtigen sind:
- Kontinuierliche und sich weiterentwickelnde Sicherheit: Angesichts des transformativen Charakters der generativen KI und der Skalierbarkeit digitaler Injektionsangriffe muss die biometrische Sicherheit laufend aus den Bedrohungen lernen und rund um die Uhr aktiv verwaltet werden.
- Passive Authentifizierung: Unser Bedrohungsbericht ergab, dass aktive, bewegungsbasierte Verifizierungssysteme - die auf Bewegungen wie Lächeln, Nicken und Blinzeln als Indikatoren für die Aktivität testen - häufiger Ziel von Face-Swap-Angriffen waren. Dies liegt daran, dass fortgeschrittene Angriffe mit synthetischen Bildern, wie z. B. der Austausch von Gesichtern, Aktionen in Echtzeit durchführen können, wodurch aktive Systeme umgangen werden und anfälliger für die wachsende Bedrohung werden. Daher werden passive biometrische Systeme empfohlen.
- Schutz vor digitalen Injektionsangriffen: Viele Lösungen zur Erkennung von Liveness können zwar Präsentations- oder Replay-Angriffe erkennen, die der Kamera präsentiert werden, aber die meisten können keine Angriffe erkennen, die digital in ein System eingeschleust wurden. Der Schutz vor digitalen Injektionsangriffen ist unerlässlich.
Neuartige Face-Swap-Angriffe und biometrische Gesichtsverifikation: Eine Zusammenfassung
Die Technologie zur Erstellung von Deepfakes wird immer besser, billiger und leichter verfügbar. Deshalb wird der Schutz vor Deepfakes immer wichtiger, je mehr die Bedrohung durch Deepfakes wächst und je mehr Menschen sich der Gefahren bewusst werden.
Unternehmen müssen ihre Verifizierungslösungen auf ihre Widerstandsfähigkeit gegenüber komplexen Angriffen wie dem Gesichtstausch überprüfen. Weitere Informationen über Face Swaps und die sich entwickelnde Bedrohungslandschaft finden Sie in unserem neuesten Bericht, dem "iProov Threat Intelligence Report 2024: The Impact of Generative AI on Remote Identity Verification". Darin beleuchten wir die wichtigsten Angriffsmuster, die im Jahr 2023 zu beobachten sind. Der Bericht ist der erste seiner Art und zeigt bisher unbekannte Muster biometrischer Angriffe in der Praxis auf. Er hilft Unternehmen, fundierte Entscheidungen darüber zu treffen, welche Technologie und welches Sicherheitsniveau sie einsetzen sollten. Lesen Sie den vollständigen Bericht hier.