17. September 2025

Das Team für Bedrohungsanalysen bei iProovdem weltweit führenden Anbieter von wissenschaftlich fundierten Lösungen zur biometrischen Identitätsüberprüfung, hat ein hochspezialisiertes Tool aufgedeckt, das für fortschrittliche Videoinjektionsangriffe entwickelt wurde und eine deutliche Eskalation des digitalen Identitätsbetrugs darstellt. Das Tool wird über Jailbroken-Geräte mit iOS 15 oder höher eingesetzt und wurde entwickelt, um schwache biometrische Verifizierungssysteme zu umgehen - und vor allem, um Identitätsverifizierungsprozesse auszunutzen, bei denen biometrische Schutzmechanismen gänzlich fehlen. Diese Entwicklung signalisiert eine Verlagerung hin zu mehr programmatischen und skalierbaren Angriffsmethoden.

Die Entdeckung ist von besonderer Bedeutung, da das Tool vermutlich aus China stammt. Sie fällt in eine Zeit erhöhter geopolitischer Spannungen um technologische Souveränität und die Sicherheit digitaler Lieferketten. Die Regierungen konzentrieren sich zunehmend auf die Abschwächung von Risiken Die Regierungen konzentrieren sich zunehmend darauf, die Risiken zu mindern, die von Technologien aus nicht verbündeten Ländern ausgehen, so dass das Auftauchen eines hochentwickelten Angriffswerkzeugs wie dieses eine Angelegenheit von nationalem Sicherheitsinteresse ist.

Bei digitalen Injektionsangriffen handelt es sich um ausgeklügelte Methoden, bei denen bösartige Bilder direkt in den Videodatenstrom eingefügt werden, anstatt einer Kamera präsentiert zu werden. Bei diesem speziellen Tool läuft der Prozess in mehreren Stufen ab:

Wie die iOS Video Injection Attacke funktioniert

  1. Voraussetzung: Die Bedrohungsgruppe behauptet, dass der Angriff ein jailbroken iOS 15 oder höheres Gerät verwendet, bei dem die nativen Apple-Sicherheitsbeschränkungen aufgehoben wurden, was tiefgreifende Systemänderungen ermöglicht.
  2. Verbindung: Der Angreifer verwendet einen RPTM-Server (Remote Presentation Transfer Mechanism), um seinen Computer mit dem kompromittierten iOS-Gerät zu verbinden.
  3. Injektion: Das Tool injiziert dann ausgeklügelte Deepfakes - eine Form von synthetischen Medien, die mit generativer KI erstellt werden - vom Computer direkt in den Videostream des Geräts. Dazu können Gesichtsvertauschungen gehören, bei denen das Gesicht eines Opfers über ein anderes Video gelegt wird, oder Bewegungsnachstellungen, bei denen ein statisches Bild mit den Bewegungen einer anderen Person animiert wird.
  4. Umgehung: Bei diesem Verfahren wird die physische Kamera vollständig umgangen, indem einer Anwendung auf dem Gerät vorgegaukelt wird, dass es sich bei dem gefälschten Video um eine Live-Übertragung in Echtzeit handelt.
  5. Täuschung: Der Deepfake wird dann zur Identitätsüberprüfung in die Anwendung eingespeist, so dass sich der Betrüger möglicherweise als rechtmäßiger Benutzer ausgeben oder eine synthetische Identität erstellen kann.

"Die Entdeckung dieses iOS-Tools stellt einen bedeutenden Durchbruch im Bereich des Identitätsbetrugs dar und bestätigt den Trend zu industrialisierten Angriffen", so Andrew Newell, Chief Scientific Officer bei iProov. "Die mutmaßliche Herkunft des Tools ist besonders besorgniserregend und beweist, dass es unerlässlich ist, eine Liveness Detection-Funktion einzusetzen, die sich schnell anpassen kann. Um diese fortschrittlichen Bedrohungen zu bekämpfen, benötigen Unternehmen mehrschichtige Cybersecurity-Kontrollen, die sich auf reale Bedrohungsdaten stützen - wie sie vom iProov Security Operations Centre (iSOC)analysiert werden -, kombiniert mit wissenschaftlich fundierter Biometrie und einer Liveness-Detection-Funktion, die sich schnell anpassen kann, um sicherzustellen, dass es sich bei einem Nutzer um die richtige Person handelt, die sich in Echtzeit authentifiziert."

Ein vielschichtiger Ansatz zur Verteidigung

Das Aufkommen von Videoinjektionsangriffen macht herkömmliche Methoden zur Identitätsüberprüfung unzureichend. Um diese Bedrohung zu bekämpfen, müssen Unternehmen einen mehrschichtigen Verteidigungsansatz implementieren, der gleichzeitig bestätigt:

  • Die richtige Person: Abgleich der angegebenen Identität mit offiziellen Dokumenten/Datenbanken, um zu bestätigen, dass der Nutzer derjenige ist, der er vorgibt zu sein.
  • Eine echte Person: Mithilfe von eingebetteten Bildern und Metadatenanalyse werden bösartige Medien erkannt und es wird überprüft, ob es sich bei dem Nutzer um einen echten Menschen und nicht um eine physische oder digitale Fälschung handelt.
  • In Echtzeit: Einsatz einer einzigartigen und passiven Challenge-Response-Interaktion, um sicherzustellen, dass die Verifizierung live erfolgt und es sich nicht um einen Replay-Angriff handelt.
  • Verwaltete Erkennung und Reaktion: Kombination von fortschrittlichen Technologien mit menschlichem Fachwissen für die laufende Überwachung, Reaktion auf Zwischenfälle und proaktive Bedrohungsjagd. Dazu gehört auch der Einsatz spezialisierter Fähigkeiten, um potenzielle Angriffsszenarien zurückzuentwickeln und Abwehrmaßnahmen zu entwickeln, um sie zu entschärfen.

Durch diesen mehrschichtigen Ansatz wird es für Angreifer exponentiell schwieriger, Identitätsüberprüfungssysteme erfolgreich zu fälschen. Selbst fortgeschrittene Angriffe haben es schwer, all diese Sicherheitsmaßnahmen zu überwinden und gleichzeitig die natürlichen Merkmale echter menschlicher Interaktion zu erhalten.