12 de febrero de 2025

La mayoría de los consumidores no puede identificar las falsificaciones generadas por IA;
Haz la prueba de detección de Deepfake

Nueva investigación de iProovproveedor líder mundial de soluciones basadas en la ciencia para la verificación de la identidad biométricarevela que la mayoría de la gente no es capaz de identificar los deepfakes, esos vídeos e imágenes increíblemente realistas generados por inteligencia artificial y diseñados a menudo para hacerse pasar por personas. El estudio puso a prueba a 2.000 consumidores de Reino Unido y Estados Unidos, exponiéndolos a una serie de contenidos reales y deepfakes. Los resultados son alarmantes: solo el 0,1 % de los participantes pudo distinguir con precisión los contenidos reales de los falsos en todos los estímulos, que incluían imágenes y vídeos.

Principales conclusiones:

  • La detección de deepfakes falla: Solo el 0,1 % de los encuestados identificó correctamente todos los estímulos deepfake y reales (por ejemplo, imágenes y vídeos) en un estudio en el que los participantes estaban preparados para buscar deepfakes. En el mundo real, donde las personas son menos conscientes, es probable que la vulnerabilidad a los deepfakes sea aún mayor.
  • Las generaciones de más edad son más vulnerables a los deepfakes: El estudio reveló que el 30% de las personas de 55 a 64 años y el 39% de las mayores de 65 años ni siquiera habían oído hablar de los deepfakes, lo que pone de manifiesto una importante laguna de conocimientos y una mayor susceptibilidad a esta amenaza emergente por parte de este grupo de edad.
  • Desafío del vídeo: Los vídeos falsos resultaron más difíciles de identificar que las imágenes falsas: los participantes tenían un 36% menos de probabilidades de identificar correctamente un vídeo sintético que una imagen sintética. Esta vulnerabilidad suscita serias preocupaciones sobre el potencial de fraude basado en vídeo, como la suplantación de identidad en videollamadas o en escenarios en los que la verificación por vídeo se utiliza para verificar la identidad.
  • Los deepfakes están en todas partes, pero no se entienden bien: Aunque la preocupación por los deepfakes va en aumento, muchos siguen sin conocer esta tecnología. Uno de cada cinco consumidores (22 %) ni siquiera había oído hablar de los deepfakes antes del estudio.
  • El exceso de confianza es galopante: A pesar de su pobre rendimiento, la gente seguía confiando excesivamente en sus habilidades de detección de deepfake en más del 60%, independientemente de si sus respuestas eran correctas. Esto ocurrió especialmente entre los adultos jóvenes (18-34 años). Esta falsa sensación de seguridad es muy preocupante.
  • La confianza se resiente: Las plataformas de las redes sociales se consideran caldo de cultivo para las falsificaciones, con Meta (49 %) y TikTok (47 %) como los lugares más utilizados para encontrar falsificaciones en línea. Esto, a su vez, ha provocado una menor confianza en la información y los medios de comunicación en línea: el 49% confía menos en las redes sociales después de conocer los deepfakes. Solo uno de cada cinco informaría a las plataformas de redes sociales si sospechara de un deepfake.
  • Los deepfakes están alimentando una preocupación y desconfianza generalizadas, especialmente entre los adultos mayores: Tres de cada cuatro personas (74%) están preocupadas por el impacto social de los deepfakes, siendo las "fake news" y la desinformación la principal preocupación (68%). Este temor es particularmente pronunciado entre las generaciones de más edad, con hasta un 82% de los mayores de 55 años que expresan su preocupación por la difusión de información falsa.
  • Se necesitan mejores mecanismos de concienciación y denuncia: Menos de un tercio de la gente (29%) no toma ninguna medida cuando se encuentra con una sospecha de deepfake, lo que probablemente se deba a que el 48% dice que no sabe cómo denunciar deepfakes, mientras que una cuarta parte no se preocupa si ve una sospecha de deepfake.
  • La mayoría de los consumidores no verifican activamente la autenticidad de la información en línea, lo que aumenta su vulnerabilidad ante las deepfakes: A pesar de la creciente amenaza de la desinformación, sólo uno de cada cuatro busca fuentes de información alternativas si sospecha que se trata de un deepfake. Solo el 11 % de las personas analiza de forma crítica la fuente y el contexto de la información para determinar si se trata de un deepfake, lo que significa que una gran mayoría es muy susceptible al engaño y a la difusión de falsas narrativas.

El profesor Edgar Whitley, experto en identidad digital de la London School of Economics and Political Science, añade: "Los expertos en seguridad llevan tiempo advirtiendo de las amenazas que plantean las deepfakes tanto para los particulares como para las organizaciones. Este estudio demuestra que las organizaciones ya no pueden confiar en el juicio humano para detectar las deepfakes y deben buscar medios alternativos para autenticar a los usuarios de sus sistemas y servicios."

"Sólo el 0,1% de las personas pudieron identificar con precisión las deepfakes, lo que subraya lo vulnerables que son tanto las organizaciones como los consumidores ante la amenaza del fraude de identidad en la era de las deepfakes", afirma Andrew Bud, fundador y consejero delegado de iProov. "E incluso cuando la gente sospecha de una deepfake, nuestra investigación nos dice que la gran mayoría de la gente no toma ninguna acción en absoluto. Los delincuentes se aprovechan de la incapacidad de los consumidores para distinguir las imágenes reales de las falsas, poniendo en peligro nuestra información personal y nuestra seguridad financiera. Corresponde a las empresas tecnológicas proteger a sus clientes aplicando medidas de seguridad sólidas. El uso de la biometría facial con liveness proporciona un factor de autenticación fiable y da prioridad tanto a la seguridad como al control individual, garantizando que las organizaciones y los usuarios puedan seguir el ritmo y permanecer protegidos frente a estas amenazas en constante evolución."

La creciente amenaza de los deepfakes

Los deepfakes suponen una amenaza abrumadora en el panorama digital actual y han evolucionado a un ritmo alarmante en los últimos 12 meses. El informe 2024 Threat Intelligence Report de iProov destacó un aumento del 704 % solo en los intercambios de caras (un tipo de deepfake). Su capacidad para suplantar de forma convincente la identidad de las personas los convierte en una poderosa herramienta para que los ciberdelincuentes obtengan acceso no autorizado a cuentas y datos confidenciales. Los deepfakes también pueden utilizarse para crear identidades sintéticas con fines fraudulentos, como abrir cuentas falsas o solicitar préstamos. Esto supone un reto importante para la capacidad humana de discernir la verdad de la falsedad y tiene amplias implicaciones para la seguridad, la confianza y la propagación de la desinformación.

¿Qué se puede hacer?

Dado que las falsificaciones profundas son cada vez más sofisticadas, los humanos por sí solos ya no pueden distinguir de forma fiable lo real de lo falso y, en su lugar, necesitan confiar en la tecnología para detectarlas. Para combatir la creciente amenaza de las falsificaciones profundas, las organizaciones deben adoptar soluciones que utilicen tecnología biométrica avanzada con detección de actividad, que verifica que un individuo es la persona correcta, una persona real, y se está autenticando ahora mismo. Estas soluciones deben incluir la detección permanente de amenazas y la mejora continua de las medidas de seguridad para adelantarse a la evolución de las técnicas de deepfake. También debe haber una mayor colaboración entre los proveedores de tecnología, las plataformas y los responsables políticos para desarrollar soluciones que mitiguen los riesgos que plantean las deepfakes.

Haz la prueba de detección de Deepfake

¿Crees que eres inmune al engaño deepfake? iProov ha creado un cuestionario en línea que te reta a distinguir lo real de lo falso. Haz el test y comprueba tu puntuación.