21 janvier 2025

Le Financial Crimes Enforcement Network (FinCEN) du département du Trésor des États-Unis a publié une alerte historique. (FinCEN) a lancé une alerte importante - une menace croissante alimentée par l IA générative ciblant les institutions financières (IF). Il s'agit d'une reconnaissance cruciale des risques qui remodèlent le paysage de la fraude.

Chez iProov, nous avons collaboré avec des banques américaines de premier plan telles que et des institutions financières internationales de premier plan telles que UBSING et Bradesco pour lutter contre la fraude par imitation et nous avons partagé nos idées sur cette course aux armements lors d'événements organisés par le FinCEN. Nos solutions, basées sur la biométrie avancée avec détection de la vivacité, répondent aux complexités de cette menace qui évolue rapidement.

La nouvelle réalité de la fraude : Deepfakes et IA générative

Les "deepfakes - médias synthétiques créés à l'aide de l'IA générative - sont désormais un outil majeur pour les fraudeurs. L'alerte du FinCEN met l'accent sur leur utilisation pour falsifier des documents d'identité hyperréalistes, usurper des vidéos et des sons, et contourner les méthodes de vérification traditionnelles.

Ces développements sont en accord avec les observations de l'équipe de veille sur les menaces d'iProov, qui révèlent l'évolution des tactiques criminelles, comme le mélange de vraies et de fausses IPI dans des identités synthétiques et l'utilisation de faux comptes générés en profondeur pour permettre le blanchiment d'argent. Nous sommes iProov l'une des seules entreprises à avoir été désignée comme l'un des principaux acteurs de la lutte contre la fraude à l'identité synthétique. fournisseur de solutions d'atténuation de la fraude par identité synthétique (SIF) par la Réserve fédérale.

Principales conclusions du rapport 2024 d'iProov sur les menaces :

L'essor du crime/deepfake-as-a-service a également facilité l'accès aux outils de fraude. Des outils de plus en plus accessibles permettent aux criminels d'exécuter des attaques à grande échelle, de manipuler les métadonnées et d'échapper à la détection.

Les principaux signaux d'alerte du FinCEN - et comment y remédier

Le FinCEN a mis en évidence les principaux signaux d'alerte indiquant une fraude par imitation, en fournissant des conseils fondamentaux aux institutions. Ces signaux d'alerte correspondent étroitement aux modèles que nous avons observés, et nous pensons que la biométrie joue un rôle crucial dans la résolution de ces problèmes.

Ci-dessous, nous avons sélectionné des exemples qui démontrent comment la biométrie scientifique complète et améliore le cadre du FinCEN :

Drapeau rouge n° 1 du FinCEN : Documents d'identité incohérents présentés par les clients.

Les documents générés par Deepfake peuvent contenir des incohérences visuelles ou informationnelles subtiles.

Drapeau rouge n° 3 du FinCEN : problèmes technologiques ou tactiques de vérification suspectes.

Un client utilise un plugin de webcam tiers pendant un contrôle de vérification en direct ou change de méthode de communication pendant un contrôle de vérification en direct en raison de problèmes technologiques excessifs ou suspects.

Aperçu : La vérification biométrique améliore la détection en liant le visage de l'utilisateur à ses documents d'identité légaux avec une précision inégalée, en détectant les divergences, même si elles ont été détectées. les évaluateurs manuels manqueraient. Cela garantit une présence authentique et bloque les tentatives de "deepfake" avant qu'elles ne réussissent. L'utilisation de documents biométriques, contenant la photo de l'utilisateur et signés numériquement par une autorité gouvernementale, est un facteur essentiel d'authenticité lors de l'intégration.

Si un fraudeur essayait d'embarquer dans un IF équipé d'iProov en utilisant un faux document d'identité, il devrait encore scanner son vrai visage (qui ne correspondrait pas au document) ou utiliser une fausse identité (deepfake). Dans les deux cas, la technologie rejette la tentative.

iProov s'associe à des spécialistes de la vérification de documents, analysant le document lui-même à la recherche d'anomalies et offrant en fin de compte une défense sur plusieurs fronts. iProov combine la vérification biométrique, la détection d'anomalies dans les documents et les contrôles dynamiques de vivacité pour traiter les menaces telles que les deepfakes et les SIF sous de multiples angles - en veillant à ce que les systèmes de prévention de la fraude soient suffisamment robustes pour protéger les utilisateurs à chaque étape du processus de vérification, tout au long du cycle de vie de l'utilisateur.

Aperçu : Des signaux tels que l'utilisation de plugins de webcam tiers peuvent indiquer qu'un utilisateur a recours à une attaque par injection numérique à l'aide de médias synthétiques. Cette méthode, qui consiste à insérer des médias truqués directement dans les systèmes de vérification de l'identité, est la suivante cinq fois plus fréquentes que les attaques de présentation persistante comme des photos ou des masques.

Le FinCEN indique que les fraudeurs tenteront d'éviter les vérifications en direct de personne à personne en déclenchant des problèmes techniques. Mais cela implique que l'on peut compter sur les humains pour repérer les imitations profondes, de sorte que les fraudeurs évitent les vérifications. Notre expérience indique que les mauvais acteurs échoueront délibérément à nos contrôles de vivacité afin d'être redirigés vers un humain en chair et en os, car ils savent qu'il est plus facile de contourner les yeux humains avec des imitations en chair et en os qu'avec des contrôles biométriques sophistiqués qui offrent une plus grande sécurité et une plus grande garantie d'identité.

Drapeau rouge FinCen n° 5 et 6 : imagerie identitaire signalée par une base de données en ligne ou un logiciel de détection de faux.

Une recherche d'image inversée ou une recherche libre d'une photo d'identité correspond à une image dans une galerie en ligne de visages produits par la GenAI & La photo ou la vidéo d'un client est signalée par un logiciel commercial ou libre de détection de deepfake.

Drapeau rouge n° 8 : Les données géographiques ou relatives à l'appareil d'un client ne correspondent pas à ses documents d'identité.

Les fraudeurs manipulent souvent les métadonnées, comme la localisation ou les signatures d'appareils, pour masquer leurs activités.

Insight : iProov est un logiciel commercial de détection des deepfakes qui offre le plus haut niveau d'assurance en matière d'identité de l'utilisateur. L'intégration biométrique et l'authentification permanente garantissent que les comptes restent liés à des utilisateurs authentiques, ce qui réduit les risques de fraude en aval et les dépenses en ressources. Nous détectons les deepfakes grâce à notre système de détection des attaques par injection (IAD), à notre système de détection des attaques par présentation et à d'autres processus algorithmiques. En liant les données biométriques à des documents d'identité fiables, les institutions peuvent empêcher les mauvais acteurs de commettre des fraudes aux nouveaux comptes et des fraudes à la prise de contrôle de comptes. Cela signifie que les institutions financières doivent consacrer moins de temps et de ressources au suivi manuel/comportemental si elles peuvent faire confiance à une présence authentique établie par la science - que c'est la bonne personne qui utilise le compte en premier lieu. Tout cela soulage l'organisation et automatise la détection des fraudes profondes. Aperçu : iProov effectue des tests améliorés sur les métadonnées ; nos algorithmes de base analysent les métadonnées pour y déceler des signes d'usurpation d'identité. Certains écarts dans les métadonnées sont signalés - ces écarts indiquent souvent l'utilisation d'émulateurs, de caméras virtuelles ou de l'enracinement, de sorte qu'ils sont détectés et bloqués.

Analyse de la réponse du FinCEN : Solutions technologiques requises 

La récente alerte du FinCEN démontre une prise de conscience réglementaire croissante de la menace du deepfake et fournit des indicateurs de base critiques pour les institutions à différents stades de maturité en matière de prévention de la fraude. Cependant, ces signaux d'alerte doivent être associés à des solutions technologiques avancées pour s'attaquer aux tactiques de plus en plus sophistiquées permises par l'IA générative.

La biométrie avancée peut réduire la dépendance à l'égard des réviseurs humains, qui sont de plus en plus sollicités à mesure que le contenu synthétique devient de plus en plus convaincant. En introduisant des outils tels que la suite de solutions biométriques d'iProov, les institutions financières peuvent passer d'une position réactive à une position préventive, en s'assurant que la fraude est arrêtée avant qu'elle ne se produise.

Les systèmes biométriques sophistiqués évitent d'imposer un fardeau irréaliste aux examinateurs humains pour détecter un contenu synthétique de plus en plus sophistiqué qui est fonctionnellement indétectable à l'œil humain et introduisent une posture de sécurité intrinsèquement préventive qui peut s'adapter à la menace croissante des "deepfakes". Ils agissent comme un "verrou" qui arrête la fraude à la source.

L'alerte du FinCEN reconnaît que les médias synthétiques ont évolué au point qu'il est "difficile de les distinguer des produits non modifiés ou générés par l'homme". En conséquence, les institutions financières doivent mettre en œuvre des solutions technologiques robustes capables de s'adapter à la menace croissante. 

Renforcer la résilience : La voie à suivre

Les enjeux sont considérables. Le coût financier de la fraude par deepfake est énorme, mais l'érosion de la confiance dans les services numériques pourrait être encore plus importante. Les signaux d'alerte du FinCEN fournissent un cadre solide, mais des outils avancés comme la suite BiometricSolutions d'iProov offrent l'évolutivité et l'assurance nécessaires pour véritablement protéger les systèmes financiers.

Notre Crise d'identité à l'ère numérique présente des mesures claires que les institutions financières peuvent prendre pour lutter contre les menaces liées aux "deepfakes" :

Adopter une biométrie fondée sur la science

  • Mise en œuvre de la détection de l'existence de plusieurs images
  • Utiliser les technologies de reconnaissance passive
  • Veiller à ce que seuls les utilisateurs authentiques aient accès au système
  • Recueillir des informations en temps réel sur les menaces pour détecter les nouvelles menaces et y répondre Les entreprises doivent pouvoir s'adapter rapidement à l'évolution du paysage des menaces, plutôt que de s'en remettre à des défenses statiques.

Investir dans Mécanismes de réponse aux défis

  • Créer des méthodes de vérification imprévisibles et non reproductibles
  • Éliminer les vulnérabilités liées aux attaques par rejeu et par injection

Tirer parti de la veille permanente sur les menaces

La crise des services financiers Deepfakes : Il est temps d'agir

La fraude de type "deepfake" n'est plus une menace lointaine - elle est là, et elle s'intensifie. Les institutions financières doivent agir maintenant en adoptant des solutions biométriques avancées pour compléter les conseils fondamentaux fournis. Il existe des solutions éprouvées pour s'assurer que les systèmes financiers sont équipés pour combattre les tactiques de fraude sophistiquées à grande échelle.

Pour une compréhension approfondie de l'évolution du paysage de la fraude, téléchargez notre Rapport de veille sur les menaces 2024. | Pour plus d'informations sur nos solutions pour les services financiers, consultez notre page Services financiers : visitez notre page Services financiers | Pour une analyse consultative de votre cas d'utilisation, de vos problèmes et de nos solutions pour répondre aux exigences de votre organisation : réservez une démonstration

Copie de PR Blog Graphic Template 8
Table des matières