Protégez votre entreprise contre les contrefaçons grâce à la détection dynamique de l'authenticité
L'essor de l'IA générative a rendu la création de médias synthétiques réalistes extrêmement facile pour les acteurs malveillants, ce qui représente une menace importante pour les processus de vérification d'identité à distance. Comme l'illustre ce court clip d'échange de visages généré par l'équipe scientifique d'iProov en moins de 30 minutes, l'accessibilité croissante des outils d'IA générative permet aux acteurs malveillants de créer facilement des deepfakes réalistes qui peuvent contourner les solutions de base de détection de l'authenticité.
Regardez cet exemple pour comprendre immédiatement les dangers posés par les médias synthétiques et le besoin critique de mesures de sécurité plus robustes pour lutter contre ces attaques avancées :
Qu'est-ce qu'un échange de visages ?
A échange de visage est une forme particulièrement malveillante et sophistiquée de particulièrement malveillante et sophistiquée. Il s'agit d'une technique d'imitation qui utilise des indices provenant d'une vidéo source (sous le contrôle de l'acteur de la menace) et un visage ciblé est greffé de manière réaliste sur un autre à l'aide d'une technologie d'intelligence artificielle. Les échanges de visages combinent des images et des vidéos existantes afin de superposer une autre identité au flux original en temps réel.
Comme le montre cet exemple, il existe aujourd'hui des outils dangereux qui permettent de créer des échanges de visages hyperréalistes avec une facilité déconcertante. Bien que la technologie qui sous-tend ces outils soit avancée, ils sont souvent faciles à utiliser grâce à une approche "plug-and-play" - ce qui signifie que même les attaquants non initiés à la technologie peuvent générer des échanges de visages et d'autres types de médias synthétiques avec un minimum de compétences en codage, augmentant ainsi l'accessibilité et la fréquence des attaques.
iProov a partagé de précieuses données de production pour le prouver. Nous avons découvert une augmentation stupéfiante de 704 % des attaques par échange de visage d'ici 2023 dans notre dernier rapport sur les menaces.
Nos analystes continuent de suivre l'évolution rapide de plus de 110 outils et référentiels d'échange de visages différents, tels que SwapFace, DeepFaceLive et Swapstream.
En fin de compte, les acteurs malveillants peuvent désormais créer des "deepfakes" de plus en plus réalistes en moins de temps qu'auparavant. Le risque posé par les deepfakes est important, car ils peuvent miner la confiance dans les médias numériques et faciliter l'usurpation d'identité et d'autres cybercrimes.
Pourquoi l'essor de l'IA générative, des médias synthétiques et des échanges de visages pose-t-il problème ?
Les "deepfakes" et autres supports synthétiques constituent une menace importante pour toutes les méthodes de vérification à distancey compris les produits de vidéoconférence. Des acteurs malveillants peuvent potentiellement :
- Présenter physiquement une vidéo deepfake sur un appareil numérique afin de contourner les contrôles de validité de base.
- Injecter numériquement de fausses vidéos ou des images dans le processus d'embarquement/authentification à distance.
- Utiliser des supports synthétiques ainsi que de faux documents d'identité pour usurper l'identité de personnes légitimes - ou créer de nouvelles identités fictives à partir d'informations réelles et fausses avec des documents apparemment légitimes.
Cela peut permettre à des acteurs malveillants de contourner vos mesures de sécurité en matière d'intégration et d'authentification et d'obtenir un accès non autorisé à des systèmes ou à des comptes sensibles. Cela peut conduire à l'usurpation d'identité, à la fraude financière, à la compromission des systèmes et à des pertes considérables pour les organisations concernées.
Les Deepfakes deviennent particulièrement dangereux lorsqu'ils sont déployés dans le cadre d'attaques par injection numérique, car ils peuvent être mis à l'échelle très rapidement pour causer des dommages importants. Les attaques par injection numérique sont des cyberattaques sophistiquées, hautement évolutives et reproductibles qui sont injectées dans un flux de données ou qui contournent entièrement la caméra de l'appareil. En fin de compte, ces attaques et l'utilisation de "deepfakes" montent en flèche :
- iProov a constaté une augmentation de 255 % des attaques par injection numérique contre les plateformes web mobiles entre le premier et le deuxième semestre 2023..
- iProov a enregistré une augmentation de 353 % des acteurs de la menace utilisant des émulateurs, une forme d'attaque par injection vidéo, entre le premier semestre et le second semestre 2023.
Les escroqueries par deepfake deviennent de plus en plus sophistiquées et lourdes de conséquences, comme en témoigne un incident récent au cours duquel un professionnel de la finance de Hong Kong a été trompé par un appel vidéo frauduleux de type "deepfake" et a dû transférer la somme stupéfiante de 25 millions de dollars..
Les organisations de toutes tailles doivent de toute urgence mettre en œuvre des mesures robustes d'authentification de l'identité, car les dangers financiers ne sont que trop réels. les dangers financiers ne sont que trop réels :
- Les organisations ont dépensé entre 5 et 25 millions de dollars en coûts opérationnels pour enquêter sur la criminalité financière, la combattre ou y remédier en 2023 - et beaucoup s'attendent à ce que ce chiffre augmente encore.
- Des statistiques récentes révèlent que 26% des petites et 38 % des grandes organisations ont été confrontées à des fraudes de type "deepfake" au cours de l'année écoulée. au cours de l'année écoulée, avec des pertes pouvant atteindre 480 000 dollars.
- Un tiers des entreprises signalent des attaques vidéo et audio deepfake au mois d'avril 2023
Comment iProov se défend contre ces menaces
La défense multicouche d'iProov permet de distinguer efficacement les utilisateurs réels des fausses vidéos lors de l'accueil et de l'authentification. Notre mécanisme passif unique de défi-réponse s'appuie sur une technologie brevetée de flashmark pour illuminer le visage de l'utilisateur avec une séquence de couleurs aléatoires, en analysant les reflets de la lumière pour confirmer la présence de l'utilisateur et contrecarrer les attaques sophistiquées d'injection numérique et de deepfake.
L'adoption criminelle d'émulateurs, de caméras virtuelles et de techniques d'usurpation de métadonnées signifie que les organisations ne peuvent plus compter sur les données des appareils, ce qui élargit la surface d'attaque pour les acteurs de la menace. iProov utilise également des capacités de détection d'injection de pointe pour lutter contre ce phénomène, avec de solides capacités de détection d'injection et de métadonnées en place ; notre méthode de livraison basée sur le cloud combinée à une surveillance continue des menaces signifie que les mises à jour de sécurité peuvent être appliquées rapidement (contrairement aux solutions sur site ou basées sur les appareils, qui sont largement statiques car elles deviennent obsolètes dès qu'un acteur de la menace réussit à s'implanter).
Disponibilité multi-cadres avec déploiement dans le nuage et centre d'opérations de sécurité (SOC) dédié centre d'opérations de sécurité (SOC) est essentielle pour détecter et prévenir en permanence les menaces liées à l'IA générative telles que les "deepfakes". C'est la spécialité d'iProov : fournir l'assurance d'identité la plus solide de l'industrie pour se protéger contre les menaces nouvelles et évolutives des médias synthétiques ciblant les processus d'identité.
Face à l'évolution rapide des menaces de type "deepfake", iProov propose la solution d'assurance d'identité la plus robuste du secteur pour protéger votre entreprise. Nos technologies brevetées, telles que Flashmark™, garantissent que seuls les utilisateurs légitimes peuvent accéder à vos systèmes tout en offrant une expérience transparente. C'est pourquoi nous sommes le partenaire de choix pour la vérification sécurisée de l'identité à distance parmi les leaders mondiaux tels que le Département américain de la sécurité intérieure, ING, le ministère de l'Intérieur du Royaume-Uni, et bien d'autres.
iProov est également devenu récemment le premier fournisseur de solutions biométriques à obtenir la certification de l'alliance FIDO pour la vérification biométrique de l'identité du visage dans le cadre d'un processus rigoureux mené par Ingenium Biometrics. La certification a été obtenue après pas moins de 10 000 tests, et le système Dynamic Liveness d'iProov a obtenu un taux de réussite sans faille, aucune attaque n'ayant réussi à passer le système. Ces résultats constituent une nouvelle référence en matière de précision et de fiabilité, avec un taux d'acceptation de présentation en cas d'attaque d'imposteur (IAPAR) de 0 % et un taux de faux rejets (FRR) de 0,14 %.
Ne laissez pas votre organisation vulnérable aux pertes financières écrasantes et à l'atteinte à la réputation causées par la fraude de type "deepfake". Protégez vos processus d'identité grâce aux défenses de pointe d'iProov contre les médias synthétiques, auxquelles les leaders mondiaux font confiance. Réservez votre démo dès aujourd'hui et découvrez comment iProov peut protéger votre entreprise contre ces menaces.