Schützen Sie Ihr Unternehmen vor Deepfakes mit Dynamic Liveness Detection

Der Aufstieg der generativen KI hat es böswilligen Akteuren erschreckend leicht gemacht, realistische synthetische Medien zu erstellen, was eine erhebliche Bedrohung für Remote-Identitätsprüfungsverfahren darstellt. Wie dieser kurze Face-Swap-Clip, den das Wissenschaftsteam von iProov in weniger als 30 Minuten erstellt hat, zeigt, können böswillige Akteure dank der zunehmenden Zugänglichkeit von generativen KI-Tools problemlos realistische Fälschungen erstellen, die einfache Lösungen zur Erkennung der Echtheit umgehen können.

Sehen Sie sich dieses Beispiel an, um sofort zu verstehen, welche Gefahren von synthetischen Medien ausgehen und wie wichtig robustere Sicherheitsmaßnahmen zur Bekämpfung dieser fortschrittlichen Angriffe sind:

Was ist ein Face Swap?

A Face Swap ist eine besonders bösartige und raffinierte Form von Deepfake Dabei werden Hinweise aus einem Quellvideo (unter der Kontrolle des Bedrohungsakteurs) verwendet und ein bestimmtes Gesicht wird mithilfe von KI-Technologie realistisch auf ein anderes Gesicht übertragen. Bei Face Swaps werden vorhandene Bilder und Videos kombiniert, um eine andere Identität über das ursprüngliche Feed zu legen in Echtzeit zu überlagern.

Wie dieses Beispiel zeigt, gibt es inzwischen gefährliche Tools, mit denen sich hyperrealistische Gesichtstausche erstaunlich einfach erstellen lassen. Die Technologie, die hinter diesen Tools steckt, ist zwar fortschrittlich, aber sie sind oft einfach zu bedienen und bieten einen "Plug-and-Play"-Ansatz. Das bedeutet, dass selbst technisch nicht versierte Angreifer mit minimalen Programmierkenntnissen Gesichtstauschdateien und andere Arten von synthetischen Medien erstellen können, was die Zugänglichkeit und Häufigkeit von Angriffen erhöht. 

iProov hat wertvolle Daten aus der Praxis zur Verfügung gestellt, die dies belegen. In unserem jüngsten Bericht über Bedrohungsdaten haben wir einen atemberaubenden Anstieg der Face-Swap-Angriffe um 704 % bis 2023 festgestellt. neuesten Threat Intelligence-Bericht.

Unsere Analysten verfolgen weiterhin über 110 verschiedene Gesichtstausch-Tools und -Repositories wie SwapFace, DeepFaceLive und Swapstream, die sich rasch weiterentwickeln.

Letztlich können böswillige Akteure heute in kürzerer Zeit als je zuvor immer realistischere Deepfakes erstellen. Das Risiko, das von Deepfakes ausgeht, ist beträchtlich, denn sie können das Vertrauen in digitale Medien untergraben und Identitätsdiebstahl und andere Cyberkriminalität erleichtern.

Warum ist das Aufkommen von generativer KI, synthetischen Medien und Gesichtstausch ein Problem?

Deepfakes und andere synthetische Medien stellen eine erhebliche Bedrohung für alle Fernüberprüfungsmethodeneinschließlich Videokonferenzprodukten. Böswillige Akteure können potenziell:

Dies kann dazu führen, dass böswillige Akteure Ihre Onboarding- und Authentifizierungssicherheitsmaßnahmen umgehen und unbefugten Zugriff auf sensible Systeme oder Konten erhalten. Dies kann zu Identitätsdiebstahl, Finanzbetrug, Systemkompromittierungen und lähmenden Verlusten für die betroffenen Unternehmen führen.

Deepfakes werden besonders gefährlich, wenn sie in digital injizierten Angriffen eingesetzt werden, da sie sehr schnell skaliert werden können, um erheblichen Schaden anzurichten. Bei digitalen Injektionsangriffen handelt es sich um ausgeklügelte, hochgradig skalierbare und replizierbare Cyberangriffe, die in einen Datenstrom injiziert werden oder die Kamera des Geräts vollständig umgehen. Letztlich nehmen diese Angriffe und die Verwendung von Deepfakes sprunghaft zu:

Deepfake-Betrügereien werden immer raffinierter und folgenschwerer, wie ein kürzlicher Vorfall zeigt, bei dem ein Finanzfachmann in Hongkong durch einen betrügerischen Deepfake-Videoanruf zur Überweisung von 25 Millionen Dollar verleitet wurde.

Organisationen jeder Größe müssen dringend robuste Maßnahmen zur Identitätsauthentifizierung einführen - die finanziellen Gefahren sind nur allzu real:

Wie iProov sich gegen diese Bedrohungen verteidigt

Die mehrschichtige Verteidigung von iProov unterscheidet beim Onboarding und bei der Authentifizierung effektiv zwischen echten Benutzern und gefälschten Videos. Unser einzigartiger passiver Challenge-Response-Mechanismus nutzt die patentierte Flashmark-Technologie, um das Gesicht des Benutzers mit einer zufälligen Farbsequenz zu beleuchten und die Lichtreflexionen zu analysieren, um die Echtheit zu bestätigen und ausgeklügelte digitale Injektionen und Deepfake-Angriffe zu vereiteln.

Die kriminelle Nutzung von Emulatoren, virtuellen Kameras und Spoofing-Metadaten bedeutet, dass Unternehmen sich nicht mehr auf Gerätedaten verlassen können, wodurch sich die Angriffsfläche für Bedrohungsakteure vergrößert. iProov nutzt auch modernste Injektionserkennungsfunktionen, um dem entgegenzuwirken, indem es robuste Injektions- und Metadatenerkennungsfunktionen bereitstellt. Unsere Cloud-basierte Bereitstellungsmethode in Kombination mit kontinuierlicher Bedrohungsüberwachung bedeutet, dass Sicherheitsupdates schnell angewendet werden können (im Gegensatz zu Lösungen vor Ort oder gerätebasierten Lösungen, die weitgehend statisch sind, da sie in dem Moment veraltet sind, in dem ein Bedrohungsakteur erfolgreich ist).

Multi-frame Liveness mit Cloud-Bereitstellung und einem dedizierten Sicherheits-Betriebszentrum (SOC) ist unerlässlich, um generative KI-Bedrohungen wie Deepfakes laufend zu erkennen und zu verhindern. Dies ist die Spezialität von iProov: die branchenweit robusteste Identitätssicherung zum Schutz vor neuen und sich entwickelnden Bedrohungen durch synthetische Medien, die auf Identitätsprozesse abzielen.

Angesichts der sich schnell entwickelnden Deepfake-Bedrohungen bietet iProov die branchenweit robusteste Identitätssicherungslösung zum Schutz Ihres Unternehmens. Unsere patentierten Technologien, wie Flashmarkstellen sicher, dass nur rechtmäßige Benutzer auf Ihre Systeme zugreifen können, und bieten gleichzeitig ein nahtloses Erlebnis. Aus diesem Grund sind wir der bevorzugte Partner für die sichere Remote-Identitätsüberprüfung bei weltweit führenden Unternehmen wie dem U.S. Department of Homeland Security, ING, dem britischen Innenministerium und vielen anderen.

iProov war außerdem kürzlich der erste Biometrieanbieter, der die Zertifizierung der FIDO Alliance für die biometrische Identitätsüberprüfung von Gesichtern in einem strengen, von Ingenium Biometrics durchgeführten Verfahren erhielt. Die Zertifizierung erfolgte nach nicht weniger als 10.000 Tests, und iProovs Dynamic Liveness erzielte eine makellose Erfolgsbilanz, da kein einziger Angriff das System passieren konnte. Diese Ergebnisse setzen einen neuen Maßstab für Genauigkeit und Zuverlässigkeit, da eine 0 %ige Imposter Attack Presentation Accept Rate (IAPAR) und eine 0,14 %ige False Reject Rate (FRR) erreicht wurde.

Machen Sie Ihr Unternehmen nicht anfällig für finanzielle Verluste und Reputationsschäden durch Deepfake-Betrug. Sichern Sie Ihre Identitätsprozesse mit dem hochmodernen iProov-Schutz für synthetische Medien, dem weltweit führende Unternehmen vertrauen. Buchen Sie Ihre Demo und erfahren Sie, wie iProov Ihr Unternehmen vor diesen Bedrohungen schützen kann.

iProov: Vertraut zum Schutz

Siegel des Ministeriums für Innere Sicherheit der Vereinigten Staaten.svg 1
UBS-Logo
Australien Regierung Logo Kopie
GovTech-Logo
NHS-Logo
ING-Logo
Knab-Bank

Wir halten uns an strenge Vorschriften, damit Sie es nicht tun müssen

eidas
CSA Star Attestation-Logo
WCAG W3c 2.2 AA Zertifizierungslogo

Vereinbaren Sie einen Termin für Ihre kostenlose Demo!