Februar 12, 2025

Die meisten Verbraucher können AI-generierte Fälschungen nicht erkennen;
Machen Sie den Test zur Erkennung von Fälschungen

Neue Forschung von iProovdem weltweit führenden Anbieter von wissenschaftlich fundierten Lösungen für die biometrische Identitätsprüfungzeigt, dass die meisten Menschen Deepfakes nicht erkennen können - diese unglaublich realistischen, von künstlicher Intelligenz erzeugten Videos und Bilder, die oft dazu dienen, Menschen zu imitieren. Im Rahmen der Studie wurden 2 000 britische und US-amerikanische Verbraucher getestet, die eine Reihe von echten und gefälschten Inhalten sahen. Die Ergebnisse sind alarmierend: Nur 0,1 % der Teilnehmer konnten echte von gefälschten Inhalten unterscheiden, und zwar bei allen Stimuli, einschließlich Bildern und Videos.

Die wichtigsten Ergebnisse:

  • Deepfake-Erkennung schlägt fehl: Nur 0,1 % der Befragten erkannten alle gefälschten und echten Stimuli (z. B. Bilder und Videos) richtig in einer Studie, bei der die Teilnehmer darauf vorbereitet wurden, nach Fälschungen zu suchen. In realen Szenarien, in denen die Menschen weniger aufmerksam sind, ist die Anfälligkeit für Fälschungen wahrscheinlich noch höher.
  • Ältere Generationen sind anfälliger für Deepfakes: Die Studie ergab, dass 30 % der 55- bis 64-Jährigen und 39 % der über 65-Jährigen noch nie von Deepfakes gehört hatten, was auf eine erhebliche Wissenslücke und eine erhöhte Anfälligkeit dieser Altersgruppe für diese neue Bedrohung hinweist.
  • Video-Herausforderung: Die Identifizierung von gefälschten Videos erwies sich als schwieriger als die von gefälschten Bildern. Die Wahrscheinlichkeit, dass die Teilnehmer ein synthetisches Video richtig identifizieren konnten, war um 36 % geringer als bei einem synthetischen Bild. Diese Schwachstelle gibt Anlass zu ernster Besorgnis hinsichtlich des Potenzials für videobasierten Betrug, wie z. B. die Nachahmung bei Videoanrufen oder in Szenarien, in denen Videoüberprüfung zur Identitätsüberprüfung verwendet wird.
  • Deepfakes sind allgegenwärtig, werden aber missverstanden: Während die Besorgnis über Deepfakes zunimmt, sind sich viele der Technologie noch nicht bewusst. Einer von fünf Verbrauchern (22 %) hatte vor der Studie noch nie von Deepfakes gehört.
  • Selbstüberschätzung ist weit verbreitet: Trotz ihrer schlechten Leistung waren die Befragten zu über 60 % von ihren Fähigkeiten zur Erkennung von Fälschungen überzeugt, unabhängig davon, ob ihre Antworten richtig waren. Dies gilt insbesondere für junge Erwachsene (18-34). Dieses falsche Sicherheitsgefühl gibt Anlass zu großer Sorge.
  • Das Vertrauen leidet: Soziale Medienplattformen werden als Brutstätte für Fälschungen angesehen, wobei Meta (49 %) und TikTok (47 %) als die häufigsten Orte gelten, an denen Fälschungen online zu finden sind. Dies wiederum hat zu einem geringeren Vertrauen in Online-Informationen und Medien geführt - 49 % vertrauen sozialen Medien weniger, nachdem sie von Deepfakes erfahren haben. Nur jeder Fünfte würde einen mutmaßlichen Deepfake an soziale Medienplattformen melden.
  • Deepfakes schüren weit verbreitete Besorgnis und Misstrauen, insbesondere unter älteren Erwachsenen: Drei von vier Menschen (74 %) machen sich Sorgen über die gesellschaftlichen Auswirkungen von Deepfakes, wobei "Fake News" und Fehlinformationen die größte Sorge darstellen (68 %). Diese Befürchtung ist bei den älteren Generationen besonders ausgeprägt: bis zu 82 % der über 55-Jährigen äußern sich besorgt über die Verbreitung von Falschinformationen.
  • Es sind bessere Sensibilisierungs- und Meldemechanismen erforderlich: Weniger als ein Drittel der Menschen (29 %) ergreift keine Maßnahmen, wenn sie auf einen mutmaßlichen Deepfake stoßen. Dies ist höchstwahrscheinlich darauf zurückzuführen, dass 48 % der Menschen nicht wissen, wie sie Deepfakes melden können, während es einem Viertel egal ist, wenn sie einen mutmaßlichen Deepfake sehen.
  • Die meisten Verbraucher versäumen es, die Echtheit von Online-Informationen aktiv zu überprüfen, was ihre Anfälligkeit für Fälschungen erhöht: Trotz der zunehmenden Bedrohung durch Fehlinformationen sucht nur jeder Vierte nach alternativen Informationsquellen, wenn er ein Deepfake vermutet. Nur 11 % der Menschen analysieren kritisch die Quelle und den Kontext von Informationen, um festzustellen, ob es sich um ein Deepfake handelt. Das bedeutet, dass die große Mehrheit sehr anfällig für Täuschung und die Verbreitung falscher Darstellungen ist.

Professor Edgar Whitley, ein Experte für digitale Identität an der London School of Economics and Political Science, fügt hinzu: "Sicherheitsexperten warnen schon seit einiger Zeit vor den Gefahren, die Deepfakes für Einzelpersonen und Organisationen gleichermaßen darstellen. Diese Studie zeigt, dass sich Organisationen bei der Erkennung von Deepfakes nicht mehr auf ihr menschliches Urteilsvermögen verlassen können und nach alternativen Möglichkeiten zur Authentifizierung der Nutzer ihrer Systeme und Dienste suchen müssen."

"Nur 0,1 % der Personen konnten die Deepfakes richtig identifizieren, was unterstreicht, wie anfällig sowohl Unternehmen als auch Verbraucher für die Bedrohung durch Identitätsbetrug im Zeitalter der Deepfakes sind", sagt Andrew Bud, Gründer und CEO von iProov. "Und selbst wenn Menschen einen Deepfake vermuten, zeigen unsere Untersuchungen, dass die überwiegende Mehrheit der Menschen überhaupt keine Maßnahmen ergreift. Kriminelle nutzen die Unfähigkeit der Verbraucher aus, echte von gefälschten Bildern zu unterscheiden, und gefährden damit unsere persönlichen Daten und unsere finanzielle Sicherheit. Es liegt an den Technologieunternehmen, ihre Kunden durch die Einführung robuster Sicherheitsmaßnahmen zu schützen. Der Einsatz von Gesichtsbiometrie mit Liveness bietet einen vertrauenswürdigen Authentifizierungsfaktor und stellt sowohl die Sicherheit als auch die individuelle Kontrolle in den Vordergrund, so dass Unternehmen und Nutzer mit diesen sich entwickelnden Bedrohungen Schritt halten und geschützt bleiben können."

Die wachsende Bedrohung durch Deepfakes

Deepfakes stellen in der heutigen digitalen Landschaft eine überwältigende Bedrohung dar und haben sich in den letzten 12 Monaten in alarmierendem Tempo weiterentwickelt. Der iProov Threat Intelligence Report 2024 zeigt einen Anstieg von 704 % allein bei den Face Swaps (einer Art von Deepfake). Ihre Fähigkeit, sich überzeugend als eine Person auszugeben, macht sie zu einem mächtigen Werkzeug für Cyberkriminelle, um sich unbefugten Zugang zu Konten und sensiblen Daten zu verschaffen. Deepfakes können auch dazu verwendet werden, synthetische Identitäten für betrügerische Zwecke zu erstellen, z. B. um gefälschte Konten zu eröffnen oder Kredite zu beantragen. Dies stellt eine große Herausforderung für die Fähigkeit des Menschen dar, Wahrheit von Lüge zu unterscheiden, und hat weitreichende Auswirkungen auf Sicherheit, Vertrauen und die Verbreitung von Fehlinformationen.

Was kann getan werden?

Da Deepfakes immer raffinierter werden, kann der Mensch allein nicht mehr zuverlässig zwischen echt und gefälscht unterscheiden und muss sich stattdessen auf Technologie verlassen, um sie zu erkennen. Um die wachsende Bedrohung durch Deepfakes zu bekämpfen, sollten Unternehmen Lösungen einsetzen, die fortschrittliche biometrische Technologie mit Aktivitätserkennung verwenden, die verifiziert, dass eine Person die richtige Person ist, eine echte Person, und sich gerade jetzt authentifiziert. Diese Lösungen sollten eine fortlaufende Erkennung von Bedrohungen und eine kontinuierliche Verbesserung der Sicherheitsmaßnahmen beinhalten, um den sich weiterentwickelnden Deepfake-Techniken einen Schritt voraus zu sein. Außerdem muss die Zusammenarbeit zwischen Technologieanbietern, Plattformen und politischen Entscheidungsträgern intensiviert werden, um Lösungen zu entwickeln, die die von Deepfakes ausgehenden Risiken mindern.

Machen Sie den Deepfake Detection Test

Sie glauben, Sie seien immun gegen Deepfake-Täuschungen? Stellen Sie Ihre Fähigkeiten auf die Probe! iProov hat ein Online-Quiz entwickelt, in dem Sie zwischen echt und gefälscht unterscheiden müssen. Machen Sie das Quiz und sehen Sie, wie Sie abschneiden.