Este año, el volumen de ataques a la identidad generados por IA ha aumentado hasta tal punto que se ha convertido en un tema de consideración para consumidores, organizaciones e incluso líderes mundiales. La biometría se erige como una fuerza transformadora en la remodelación de la forma en que las personas interactúan con los sistemas digitales y cómo las organizaciones salvaguardan la información sensible. A medida que se acerca 2024, el panorama de la identidad digital se prepara para avances significativos, con innovaciones que redefinirán la verificación, elevarán los estándares de seguridad y mejorarán las experiencias de los usuarios.

Acompáñenos en esta inmersión en el futuro inminente de la biometría, donde la fusión de la ciencia y la seguridad promete un cambio de paradigma en la forma en que autenticamos, identificamos y protegemos en el ámbito digital.

1. La biometría se convertirá en la piedra angular de la infraestructura de seguridad del mercado de servicios financieros de EE.UU.

En el último año, muchas organizaciones de servicios financieros han ampliado el acceso digital remoto para satisfacer la demanda de los usuarios. Sin embargo, esto ha ampliado la superficie de ataque digital y ha creado oportunidades para los defraudadores. El sector de los servicios financieros de Estados Unidos ha tardado más en adoptar las tecnologías de identidad digital que otras regiones, lo que podría atribuirse a los retos a los que se enfrenta en materia de regulación de la interoperabilidad y el intercambio de datos.. Sin embargo se prevé que el fraude de identidad sintética genere al menos 23.000 millones de dólares en pérdidas de aquí a 2030la presión aumenta desde todos los ángulos. Los consumidores esperan abrir cuentas y acceder a servicios a distancia con rapidez y facilidad, mientras los defraudadores socavan la seguridad a través de canales en línea y desvían dinero. Al mismo tiempo, existe la grave amenaza del incumplimiento de las normas "Conozca a su cliente" (KYC) y contra el blanqueo de capitales (AML). Las sanciones por ello incluyen enormes multas y, potencialmente, incluso acciones penales. Además, aumenta el riesgo de eludir sanciones y financiar a adversarios estatales. En respuesta, muchas instituciones financieras se están viendo obligadas a tomar medidas. Esto ha implicado la sustitución de los engorrosos procesos de incorporación y la suplantación de métodos de autenticación obsoletos, como contraseñas y códigos de acceso, por tecnologías avanzadas para incorporar y autenticar a distancia a los clientes existentes de banca en línea.

Una de las más avanzadas es la tecnología de verificación biométrica facial, que ofrece una comodidad y accesibilidad inigualables a los clientes, al tiempo que plantea retos de seguridad sin parangón a los adversarios. Más instituciones financieras reconocerán cómo la verificación biométrica remodelará y redefinirá el impacto positivo que la tecnología puede tener a la hora de equilibrar la seguridad con la experiencia del cliente y harán el cambio.

2. Aumentará rápidamente el número de países en desarrollo que creen programas de identidad digital basados en la identidad descentralizada.

Se calcula que 850 millones de personas en todo el mundo carecen de una forma legal de identificacióny, sin identidad, las personas tienen dificultades para abrir una cuenta bancaria, conseguir un empleo y acceder a la atención sanitaria, lo que las deja financieramente excluidas. Los programas de identidad digital mejoran el acceso a los servicios y oportunidades digitales. Permiten a las personas afirmar su identidad, acceder a plataformas en línea y participar en iniciativas gubernamentales digitales. Con el apoyo de la inversión de los fondos del Banco Mundial, los programas de identidad digital pueden ayudar a las economías menos avanzadas a prevenir el robo de identidad y el fraude, así como proporcionar una forma alternativa de probar sus identidades y acceder a servicios esenciales como prestaciones, asistencia sanitaria y educación. Basados en una identidad descentralizada, estos programas permitirán a los usuarios almacenar e intercambiar digitalmente documentos de identidad, como el carné de conducir, y credenciales, como diplomas, y autenticarse sin una autoridad central. Una identidad descentralizada da el control al usuario permitiéndole gestionar su identidad de forma distribuida. Ofrecerán la comodidad que ahora demandan los usuarios finales y abrirán vías esenciales para que personas antes desfavorecidas o marginadas puedan acceder a servicios financieros y de bienestar.

3. Se prohibirán las videollamadas a distancia para verificar la identidad

Laverificación por videollamada consiste en una videollamada individual entre el usuario y un operador formado. Se pide al usuario que muestre un documento de identidad y el operador lo compara con su rostro. Sin embargo, está demostrado que la verificación de videollamadas ofrece pocas garantías de que el usuario final sea una persona "viva" y no imágenes artificiales generadas por IA y superpuestas de forma convincente al rostro del actor de la amenaza.

Por ejemplo, in 2022, investigadores del Chaos Computer Club consiguieron burlar la tecnología de verificación de videollamadas utilizando IA generativa y un documento de identidad falsificado. El caso demostró que esta tecnología, y los operadores humanos en los que se basa, son muy susceptibles a los ataques con imágenes sintéticas. Desde entonces, la Oficina Federal Alemana de Seguridad de la Información ha advertido contra la verificación de videollamadas por su vulnerabilidad a estos ataques.

Si los programas de identidad digital no pueden defenderse de la amenaza de las falsificaciones en la incorporación y la autenticación, serán explotados con fines delictivos, como el fraude en los pagos, el blanqueo de dinero y la financiación del terrorismo. Por ello, los reguladores de los servicios financieros prohibirán los métodos de verificación por videollamada con la directiva de elegir métodos más fiables basados en híbridos que combinen la concordancia automatizada de la IA y la detección de vitalidad con la supervisión humana del proceso de aprendizaje automático.

4. Las organizaciones introducirán la autenticación mutua entre empleados para la comunicación de alto riesgo y la incorporación remota de nuevos empleados. 

A medida que las organizaciones dependen cada vez más de los medios digitales para la comunicación confidencial, la necesidad de medidas sólidas de ciberseguridad es primordial para mitigar los riesgos. La introducción de la autenticación mutua para las comunicaciones y transacciones de alto riesgo es una medida de seguridad crucial que añade una capa adicional de protección contra el acceso no autorizado y las amenazas potenciales. Además, en determinados sectores, el cumplimiento de la normativa obliga a implantar medidas de seguridad sólidas. La autenticación mutua ayuda a las organizaciones a cumplir estos requisitos de conformidad demostrando su compromiso de garantizar canales de comunicación seguros y proteger la información confidencial.

5. Las violaciones de datos corporativos se triplicarán debido al éxito de los ataques generados por IA

Desde hace algunos años, las organizaciones y los particulares han confiado en detectar los correos electrónicos de phishing a través de las faltas de ortografía y los errores gramaticales. Ese tiempo ha pasado. Tal es la calidad de Chat GPT que ahora los actores de amenazas pueden utilizarla para generar ataques de phishing de alta calidad en comunicaciones muy convincentes y sin pistas sospechosas. En consecuencia, 2024 será testigo de un agudo aumento tanto de la calidad como del volumen de los ataques de phishing generados por IA. La formación en materia de concienciación de seguridad se convertirá en una herramienta redundante y las organizaciones se verán obligadas a buscar métodos alternativos y más fiables para autenticar de forma fiable a los usuarios internos y externos de sus plataformas.

6. Los kits de síntesis de voz y vídeo de Crime-as-a-Service romperán la barrera de los menos de 100 dólares 

La delincuencia como servicio y la disponibilidad de herramientas en línea aceleran la evolución del panorama de las amenazas, permitiendo a los delincuentes lanzar ataques avanzados más rápidamente y a mayor escala. Si los ataques tienen éxito, escalan rápidamente en volumen y frecuencia, amplificando el riesgo de daños graves.

Los malhechores están utilizando sofisticadas tecnologías de IA generativa para crear y lanzar ataques con el fin de explotar los sistemas de seguridad de las organizaciones y estafar a particulares. iProov ha sido testigo de indicios similares de delincuentes poco cualificados que están adquiriendo la capacidad de crear y lanzar ataques avanzados de imágenes sintéticas. En nuestro más reciente informe sobre amenazas biométricasobservamos la aparición y el rápido crecimiento de nuevos intercambios de rostros por vídeo. Los intercambios de caras son una forma de imágenes sintéticas en las que el autor de la amenaza transforma más de una cara para crear un nuevo vídeo 3D falso.

El coste de los recursos necesarios para lanzar ataques se está reduciendo y esperamos que los kits de Crime-as-a-Service caigan por debajo de los 100 dólares.

7. El potencial de la IA para difundir desinformación política hará que la autenticación de la autoría de las imágenes y el contenido escrito sea una herramienta legalmente obligatoria. 

A medida que se acerquen las elecciones, habrá una plétora de vídeos falsos generados por inteligencia artificial que se utilizarán para persuadir a los votantes. Para contrarrestarlo, las empresas tecnológicas tomarán medidas para que los usuarios puedan verificar la autenticidad de las imágenes que suben. Por ejemplo, soluciones que permitan poner marcas de agua en las imágenes y firmarlas cuando se crean o modifican.

Es probable que en 2024 se produzcan muchos intentos en este ámbito, ya que el uso de deepfakes está muy extendido. Será un requisito previo que cualquier contenido que utilice imágenes ofrezca alguna forma de garantizar su autenticidad y, de no hacerlo, esas imágenes se devaluarán.

8. Una Zoom Call generada por IA dará lugar al primer fraude de un CEO de mil millones de dólares 

El fraude de los directores generales afecta al menos a 400 empresas al día y representa una amenaza significativa para las organizaciones de todo el mundo. En este tipo de delito, los atacantes se hacen pasar por altos ejecutivos de la empresa e intentan engañar a los empleados para que transfieran fondos, revelen información sensible o inicien otras actividades fraudulentas. A menudo se trata de sofisticados ataques de ingeniería social que dificultan su detección. Las herramientas de IA generativa están siendo ampliamente utilizadas por los estafadores para crear deepfakes que imiten a una persona. Los malos actores pueden crear audio e imágenes convincentes generadas por IA y desplegarlas en plataformas como Zoom, Microsoft Teams y Slack. Sin herramientas sofisticadas de supervisión y detección, es casi imposible detectar este tipo de imágenes sintéticas. Por lo tanto, esperamos que una llamada de Zoom generada por IA provoque el primer fraude multimillonario a un CEO en 2024.

Tablero 150