Generative KI
Generative KI bezieht sich auf Systeme der künstlichen Intelligenz, die neue Daten generieren können, z. B. Bilder, Audio, Text und synthetische Medien, anstatt einfach vorhandene Daten zu analysieren. Dabei werden maschinelle Lernmodelle wie Generative Adversarial Networks (GANs) und Diffusionsmodelle verwendet, die auf großen Datensätzen trainiert werden, um neue Ergebnisse zu erzeugen, die die Muster in den Trainingsdaten nachahmen.
Zu den gängigen generativen KI-Anwendungen gehört die Erstellung von Deepfakes (z. B., Gesichtsvertauschungen oder Klonen von Stimmen), fotorealistische Bilder, die Erzeugung von Musik/Kunst und die Generierung menschenähnlicher Texte. Die Fähigkeit der generativen KI, hochrealistische synthetische Medien zu erzeugen, eröffnet zwar neue kreative Möglichkeiten, birgt aber auch Risiken in Bezug auf Desinformation, Nachahmung und Identitätsbetrug, gegen die eine robuste Liveness Detection schützen muss.
Die generative KI hat den Bereich der synthetischen Medien revolutioniert und ermöglicht die Erstellung äußerst realistischer Face-Swaps und anderer ähnlicher Inhalte.
Was ist der Unterschied zwischen Deepfakes und generativer KI?
Der Begriff "Deepfake" wurde in der Vergangenheit für synthetische Bilder verwendet, die mithilfe von tiefen neuronalen Netzen erstellt wurden. In der Praxis werden generative KI und Deepfakes jetzt oft synonym verwendet austauschbar verwendet, da es eine große Überschneidung gibt, aber ein Deepfake bezieht sich eher auf ein Video, Bild oder ein Video, ein Bild oder ein Audiomaterial, das für böswillige Zwecke verwendet wird.
Im Gegensatz dazu umfasst die generative KI die Ausgabe in beliebigen Medien (einschließlich Text, z. B. Sprachmodelle [LLMs] wie ChatGPT) für jeden Zweck. Kurz gesagt: Deepfakes sind eine Teilmenge der generativen KI.
Was können wir tun, um generative KI-Angriffe zu bekämpfen?
Um synthetische Medien zu erkennen, die mit generativer KI erstellt wurden, sind Verifizierungstechnologien erforderlich, die KI gegen KI einsetzen.
In Verbindung mit der biometrischen Gesichtsverifizierung verbessert die KI die Genauigkeit, Sicherheit und Geschwindigkeit des Identitätsprüfungsprozesses. Benutzer können ihre Identität aus der Ferne überprüfen, indem sie das vertrauenswürdige Dokument einer Person und ihr Gesicht scannen. Deep-Learning-Modelle wie Convolutional Neural Networks (CNNs) erkennen und vergleichen die Bilder. Gleichzeitig wird die Lebendigkeitserkennung um sicherzustellen, dass es sich bei den Bildern um eine echte Person und nicht um eine nicht lebende Fälschung handelt, wie z. B. ein Deepfake, eine Maske oder ein anderes synthetisches Medium.
Biometrische Gesichtsüberprüfung ist nach wie vor eine der zuverlässigsten und bequemsten Methoden, um die Identität aus der Ferne zu überprüfen und sich gegen KI-generierte Angriffe zu schützen. Allerdings sind nicht alle biometrischen Technologien für das Gesicht gleich geschaffen. Anbieter müssen robuste passive Challenge-Response-Mechanismen implementieren, um sicherzustellen, dass es sich bei einer entfernten Person um eine echte Person handelt und diese in Echtzeit verifiziert wird. Dazu ist eine wissenschaftlich fundierte Technologie erforderlich, die künstliche Intelligenz nutzt, um sicher zu erkennen, dass es sich bei einer Person um eine "echte" Person handelt (und nicht um eine generative KI-Fälschung) und dass sie wirklich anwesend ist und sich in Echtzeit verifiziert.
Der passive Challenge-Response-Mechanismus von iProov ist Flashmark - Die zufällige Natur der Technologie macht sie unvorhersehbar, unempfindlich gegenüber Wiederholungsangriffen (wenn Bedrohungsakteure frühere Authentifizierungsversuche einspeisen, um das System zu umgehen) und unwahrscheinlich, dass sie nachgeahmt werden kann. Dies ist die einzige Möglichkeit, generative KI und digitale Injektionsangriffe wirksam zu entschärfen, indem echte Anwesenheit mit hoher Sicherheit erkannt wird.
Lesen Sie mehr:
- Die verschiedenen Arten von Deepfake-Attacken durch generative KI verstehen
- Mit den Betrügern Schritt halten: Wie man generative KI und dokumentenbasierte biometrische Angriffe abwehrt
- Generative KI im öffentlichen Sektor - und die Rolle der biometrischen Gesichtserkennung
- Generative KI und Identitätsrisiko - Schutz Ihres digitalen Ökosystems mit iProov und Ping
- iProov 2024 Bericht zur Bedrohungslage