2 de agosto de 2023
En los últimos dos años, iProov ha sido testigo del enorme aumento de un nuevo tipo de intercambio de caras. Este tipo es considerablemente más avanzado que los intercambios de caras tradicionales: son tridimensionales y más resistentes a las técnicas de detección establecidas. Nuestro Informe de Inteligencia sobre Amenazas descubrió que la frecuencia de esta nueva amenaza creció exponencialmente: un 295% de H1 a H2.
Los malhechores están utilizando sofisticadas tecnologías de IA generativa para crear y lanzar ataques con el fin de explotar los sistemas de seguridad de las organizaciones y estafar a los particulares. En consecuencia, creemos que la concienciación y la comprensión de las tecnologías deepfake deben ampliarse y debatirse más ampliamente para contrarrestar estos esfuerzos. Si no conocen el panorama de las amenazas, las organizaciones tendrán dificultades para emplear la tecnología de verificación adecuada para defenderse de ellas.
Este artículo explica qué son los intercambios de caras, por qué son tan singularmente peligrosos y analiza las soluciones a esta creciente amenaza.
¿Qué son los intercambios de caras?
Los intercambios de caras son un tipo de imágenes sintéticas creadas a partir de dos entradas. Combinan secuencias de vídeo o en directo y superponen otra identidad a la original en tiempo real.
El resultado final es una salida de vídeo 3D falsa, que se fusiona a partir de más de una cara.
En resumen, los intercambios de caras pueden resumirse en un proceso de tres pasos:
- La entrada uno es un video del atacante
- La segunda entrada es un vídeo de la identidad que intentan suplantar.
- El software fusiona las dos entradas anteriores en una salida final, es decir, un vídeo en 3D falsificado de una persona seleccionada.
Un comparador de caras sin las defensas adecuadas identificaría la salida como el individuo genuino. El resultado final será algo parecido a esto:
Un intercambio de caras ataque se refiere específicamente al uso de las imágenes sintéticas anteriores junto con la metodología de despliegue elegida (como man-in-the-middle o bypass de cámara) para lanzar un ataque dirigido contra un sistema u organización.
¿Por qué deben preocuparte los ataques de intercambio de caras?
Los delincuentes pueden utilizar el intercambio de rostros para cometer delitos como el fraude de cuentas nuevas, el fraude de apropiación de cuentas o el fraude de identidad sintética. Puede imaginarse lo eficaz que puede ser un intercambio de rostros durante un proceso de verificación de identidad en línea, ya que un estafador puede controlar a voluntad las acciones del rostro intercambiado. Los intercambios de rostros son especialmente singulares porque pueden utilizarse en tiempo real.
Imagínese lo siguiente: un estafador necesita pasar un control de verificación de videollamadas. Un deepfake tradicional pregrabado o en 2D sería inútil en este caso, porque no podría utilizarse para responder a preguntas en tiempo real. Sin embargo, utilizando un intercambio de caras en directo, un delincuente podría completar la verificación de la videollamada transformando sus propias acciones (e incluso el habla) con otra entrada de la persona auténtica que está fingiendo ser, creando en última instancia un resultado sintético para engañar al proceso de verificación.
Consideremos algunas cuestiones adicionales asociadas a los nuevos ataques de intercambio de caras:
- Los ataques de intercambio de caras son cada vez más frecuentes: Un 295% más de H1 a H2 solo en 2022. Esta tasa de crecimiento indica que los delincuentes poco cualificados están accediendo a los recursos necesarios para lanzar ataques sofisticados.
- La delincuencia como servicio está creciendo: La disponibilidad de herramientas en línea está acelerando la evolución del panorama de las amenazas. Esto permite a los delincuentes lanzar ataques avanzados más rápidamente y a mayor escala. Si los ataques tienen éxito, aumentan rápidamente en volumen y frecuencia a medida que se comparten entre redes establecidas de delincuencia como servicio o en la darkweb, amplificando el riesgo de daños graves.
- La intervención manual ya no es eficaz: Aunque el 57% de los consumidores mundiales creen que pueden detectar con éxito un deepfake, un estudio reveló que sólo el 24% de las personas pueden hacerlo. Y es de esperar que los resultados de un estudio de este tipo varíen enormemente en función de la calidad del deepfake y de la formación especializada de la persona; hoy en día, muchos son realmente indistinguibles para el ojo humano.
¿Cómo se lanzan los ataques de intercambio de caras?
Los ataques de intercambio de caras se realizan mediante técnicas de inyección digital para intentar falsificar un sistema de autenticación biométrica.
A ataque de inyección digital es cuando se inyecta un ataque en una aplicación o conexión de servidor de red, eludiendo el sensor por completo.
Se podría acercar un vídeo grabado a una cámara (lo que se conoce como ataque de presentación), pero no clasificaríamos esto como un intercambio de caras. Un intercambio de caras es el uso de cualquier número de aplicaciones para aplicar una representación digital falsa de la cara de una persona (en su totalidad o en parte) y superponerla a la de los actores. Esto se hace mediante inyección digital.
Los ataques de inyección digital son el método de despliegue más peligroso porque son una forma de ataque altamente escalable y replicable. Mientras que la detección de ataques de presentación está acreditada por organizaciones como NIST FRVT e iBeta, no existen pruebas de este tipo para la detección de ataques de inyección digital, por lo que se recomienda a las organizaciones que investiguen por su cuenta cómo los proveedores pueden mitigar esta creciente metodología de ataque y mantener a los usuarios seguros de forma continua.
Las soluciones biométricas de verificación facial deben defenderse de los ataques de intercambio de rostros
A medida que aumenta el número de actividades que se realizan en línea y maduran los proyectos de transformación digital e identidad digital, la necesidad de una verificación y autenticación sólidas de los usuarios no hace sino aumentar.
Lo cierto es que los métodos tradicionales de verificación no han conseguido mantener la seguridad de los usuarios en Internet. No se puede confiar únicamente en los datos como confirmación de quién es alguien. Las contraseñas se pueden descifrar, robar, perder o compartir. Los OTP pueden ser interceptados. La verificación de las videollamadas puede ser falsificada y depender del juicio manual, que ya no puede distinguir con fiabilidad entre imágenes auténticas y sintéticas.
Así pues, la verificación facial biométrica se ha convertido en el único método seguro y cómodo de verificar la identidad del usuario en línea. Sin embargo, no todas las soluciones de verificación facial biométrica son iguales.
Las soluciones biométricas se diferencian por el grado de éxito con el que pueden establecer la vitalidad y proporcionar una experiencia de usuario inclusiva (en relación con la edad, el sexo, el origen étnico, la capacidad cognitiva, etc.). Para obtener más información sobre la vitalidad y las diferentes tecnologías biométricas de verificación facial del mercado junto con sus diferenciadores clave, lea nuestro libro electrónico Desmitificación de la verificación biométrica facial aquí.
Como hemos destacado en este artículo, existen graves amenazas crecientes para la seguridad (como ocurre con cualquier tecnología de garantía de identidad). A la hora de elegir una solución biométrica, debes ser consciente de los retos en torno a la seguridad para poder emplear la tecnología de verificación adecuada.
Veamos algunos de los factores clave que hay que tener en cuenta específicamente a la hora de elegir un proveedor biométrico que defienda contra los intercambios de rostros:
- Seguridad continua y en evolución: Dada la naturaleza transformadora de la IA generativa y la escalabilidad de los ataques de inyección digital, la seguridad biométrica debe aprender de las amenazas de forma continua y gestionarse activamente 24 horas al día, 7 días a la semana.
- Autenticación pasiva: Nuestro informe sobre amenazas reveló que los sistemas activos de verificación basados en el movimiento -que comprueban movimientos como sonreír, asentir con la cabeza y parpadear como indicadores de vitalidad- eran el blanco más frecuente de los ataques de intercambio de caras. Esto se debe a que los ataques avanzados con imágenes sintéticas, como los intercambios de rostros, pueden realizar acciones en tiempo real, eludiendo los sistemas activos y haciéndolos más susceptibles a la creciente amenaza. Por eso se recomiendan los sistemas biométricos pasivos.
- Protección contra ataques de inyección digital: Mientras que muchas soluciones de detección de actividad pueden detectar ataques de presentación o repetición que se presentan a la cámara, la mayoría no puede detectar ataques que se han inyectado digitalmente en un sistema. La mitigación de los ataques de inyección digital es esencial.
Nuevos ataques de intercambio de rostros y verificación biométrica de rostros: Resumen
La tecnología para crear deepfakes es cada vez mejor, más barata y más fácil de conseguir. Por eso, la protección contra las falsificaciones profundas será cada vez más importante, a medida que la amenaza de las falsificaciones profundas aumente y más gente sea consciente de sus peligros.
Las organizaciones necesitan evaluar sus soluciones de verificación para la resiliencia frente a ataques complejos como los intercambios de rostros. Para obtener más información sobre los intercambios de rostros y la evolución del panorama de las amenazas, lea nuestro último informe, "iProov Threat Intelligence Report 2024: El impacto de la IA generativa en la verificación de identidad remota". En su interior, iluminamos los patrones de ataque clave presenciados a lo largo de 2023. Este informe, el primero de su clase, destaca patrones de ataques biométricos en producción desconocidos hasta ahora, ayudando a las organizaciones a tomar decisiones informadas sobre qué tecnología y qué nivel de seguridad desplegar. Lea el informe completo aquí.