6. Februar 2023

Eine neue Studie von iProov zeigt die neuesten Angriffstrends auf biometrische Überprüfungssysteme und wie sie abgewehrt werden können

Die wichtigsten Ergebnisse:

  • Digitale Injektionsangriffe waren 2022 fünfmal häufiger als anhaltende Präsentationsangriffe (z. B. das Zeigen einer Maske vor der Kamera).
  • Angreifer fälschen Metadaten und kompromittieren sogar ehemals vertrauenswürdige Gerätedaten. Die Zahl der Angriffe auf mobile Plattformen ist um 149 % gestiegen.

Deepfakes sind heute ein gängiges Mittel bei Angriffe auf die CybersicherheitEine neue Variante dieser Angriffe - neuartige Gesichtsvertauschungen - wurde im vergangenen Jahr zum ersten Mal aufgedeckt.

iProovder weltweit führende Anbieter von biometrischen Verifikations- und Authentifizierungstechnologien für Gesichter, hat heute die erste Studie ihrer Art veröffentlicht Bericht über die biometrische Bedrohungslandschaft 2023veröffentlicht, der Analysen und Angriffstrends aufzeigt, denen biometrische Systeme ausgesetzt sind.

Digitale Identitäten werden immer häufiger genutzt, da die digitalen Transformationsprojekte von Unternehmen und Behörden immer weiter fortschreiten und die Nutzer eine bessere Fernzugänglichkeit für alles verlangen, von der Eröffnung eines Bankkontos bis zur Beantragung von Behördendiensten. Um diesen Wandel zu unterstützen, haben viele Organisationen die biometrische Gesichtsverifikation eingeführt, da sie weithin als die benutzerfreundlichste, sicherste und inklusivste Lösung für die Authentifizierungstechnologie anerkannt ist.

Mit der zunehmenden Verbreitung der biometrischen Gesichtsverifikation zielen Bedrohungsakteure jedoch mit ausgeklügelten Online-Angriffen auf alle Systeme ab. Um sowohl Benutzerfreundlichkeit als auch Sicherheit zu erreichen, müssen Unternehmen ihre biometrischen Lösungen auf ihre Widerstandsfähigkeit gegenüber diesen komplexen Angriffen prüfen.

Digitale Injektionsangriffe sind weit verbreitet - und entwickeln sich weiter 

Digitale Injektionsangriffe - bei denen ein böswilliger Akteur einen Kamerafeed umgeht, um ein System mit synthetischen Bildern und Videoaufzeichnungen auszutricksen - traten im Jahr 2022 fünfmal häufiger auf als persistente Präsentationsangriffe (d. h. das Zeigen eines Fotos oder einer Maske für ein System) im Internet. Dies ist sowohl auf die Leichtigkeit zurückzuführen, mit der sie automatisiert werden können, als auch auf die Zunahme des Zugangs zu Malware-Tools. Mehr als drei Viertel der im Dark Web verfügbaren Malware ist für weniger als 10 US-Dollar erhältlich.und mit der Zunahme von Malware-as-a-Service und Plug-and-Play-Kits sind heute nur noch 2-3 % der Bedrohungsakteure fortgeschrittene Programmierer.

Auch mobile Plattformen wurden als zunehmend verwundbar eingestuft, da die Angreifer inzwischen Software, so genannte Emulatoren, einsetzen, die das Verhalten von Mobilgeräten imitieren. Der Bericht warnt Unternehmen davor, sich bei der Sicherheit auf Gerätedaten zu verlassen, denn die Zahl der Bedrohungsakteure, die es auf mobile Plattformen abgesehen haben, ist in der zweiten Jahreshälfte im Vergleich zur ersten Jahreshälfte um 149 % gestiegen.

"Unsere Analyse zeigt, dass sich die Landschaft der Online-Bedrohungen stets schnell weiterentwickelt", so sagte Andrew Newell, Chief Scientific Officer bei iProov. "Der 149-prozentige Anstieg der Angriffe über Emulatoren, die sich als mobile Geräte ausgeben, ist ein gutes Beispiel dafür, wie schnell Angriffsvektoren entstehen und sich ausbreiten. Wir haben eine rasche Verbreitung kostengünstiger, einfach zu bedienender Tools beobachtet, die es Bedrohungsakteuren ermöglichen, fortschrittliche, skalierbare Angriffe mit begrenzten technischen Kenntnissen zu starten."

Die Deepfake-Bedrohung ist eine Realität - und neuartige Face-Swap-Angriffe tauchen auf

Angriffe, bei denen die Deepfake-Technologie zum Einsatz kommt, sind im vergangenen Jahr deutlich häufiger geworden. Die Technologie wird heiß diskutiert und setzt sich immer mehr durch. Das Verbot ihrer nicht einvernehmlichen Nutzung ist ein wichtiger Bestandteil des Entwurfs des britischen Gesetzes zur Online-Sicherheit. Heute wird sie häufig von Cyberangreifern verwendet, um 3D-Videos zu erstellen, die den Systemen vorgaukeln, dass der echte Verbraucher versucht, sich zu authentifizieren.

Im Jahr 2022 wurde auch erstmals eine neue Art synthetischer digitaler Angriffe eingesetzt - neuartige Gesichtsvertauschungen -, bei denen vorhandene Video- oder Livestreams kombiniert und in Echtzeit eine andere Identität über die Originaldaten gelegt wird. Diese Art komplexer Angriffe tauchte erstmals im ersten Halbjahr 2022 auf, doch die Zahl der Angriffe stieg im weiteren Verlauf des Jahres weiter an. Diese Angriffe sind sowohl für aktive als auch für passive Überprüfungssysteme unglaublich schwer zu erkennen. Nachdem sie in der ersten Jahreshälfte 2022 aufgetaucht waren, nahmen neuartige Gesichtsvertauschungen von H1 auf H2 um 295 % zu.


"Im Jahr 2020 haben wir vor der aufkommenden Bedrohung durch Deepfakes gewarnt, die digital in Kamerabilder eingespeist werden, um den biometrischen Verifizierungsprozess einer Person zu imitieren". sagte Andrew Bud, Gründer und CEO von iProov. "Dieser Bericht beweist, dass Deepfake-Angriffe inzwischen Realität sind. Selbst mit fortschrittlichem maschinellem Lernen können die Systeme bei der Erkennung und Behandlung dieser sich entwickelnden Angriffe nur schwer mithalten. Jedes Unternehmen, das sein System nicht gegen diese Bedrohungen schützt, muss dies dringend tun, insbesondere bei risikoreichen Identitätsüberprüfungsszenarien."

Niemand ist sicher: Die Angriffe erfolgen massenhaft und wahllos 

Im vergangenen Jahr wurden weltweit dreimal pro Woche massenhaft bewegungsbasierte Angriffe durchgeführt, bei denen jeweils 100 bis 200 Verifizierungsversuche unternommen wurden, um die Plattformen zu überwältigen. Die Angriffe zielten auf verschiedene Systeme gleichzeitig ab und waren unabhängig von Branche oder Standort, was darauf hindeutet, dass keine Organisation sicher ist. Bewegungsbasierte Verifizierungssysteme - die aktive Bewegungen wie Lächeln, Nicken und Blinzeln verwenden - waren häufig das Ziel.

Der iProov Biometric Threat Intelligence 2023 Report stützt sich auf Daten des iProov Security Operations Center (iSOC) und Expertenanalysen.

Bedrohungskampagnenbericht Bild v4