14 de agosto de 2024

  • El 70% de las organizaciones cree que los ataques deepfake tendrán un gran impacto 
  • El 73% de las organizaciones encuestadas están implementando soluciones de ciberseguridad para hacer frente a la amenaza de los deepfakes
  • El 75% de las soluciones que se están implantando para hacer frente a los deepfakes son biométricas
  • Al 62% le preocupa que su organización no se tome lo suficientemente en serio la amenaza de los deepfakes

El riesgo de deepfakes va en aumento: casi la mitad de las organizaciones (47 %) se han encontrado con un deepfake y tres cuartas partes de ellas (70 %) creen que los ataques de deepfake, creados mediante herramientas de IA generativa, tendrán un gran impacto en sus organizaciones. Sin embargo, las percepciones de la IA son esperanzadoras, ya que dos tercios de las organizaciones (68%) creen que, si bien es impactante en la creación de amenazas de ciberseguridad, más (84%) consideran que es instrumental en la protección contra ellas. Así se desprende de una nueva encuesta mundial realizada por iProovun proveedor líder de soluciones de identidad biométrica basadas en la ciencia, que también encontró que tres cuartas partes (75%) de las soluciones que se están implementando para hacer frente a la amenaza deepfake son soluciones biométricas.

Lo bueno, lo malo y lo feoes una encuesta mundial encargada por iProov que recogió las opiniones de 500 responsables de la toma de decisiones tecnológicas de Reino Unido, Estados Unidos, Brasil, Australia, Nueva Zelanda y Singapur sobre la amenaza de la IA generativa y los deepfakes.

Aunque las organizaciones reconocen la mayor eficiencia que puede aportar la IA, los desarrolladores de tecnologías de amenazas y los malos actores también disfrutan de estas ventajas. Casi tres cuartas partes (73%) de las organizaciones están implementando soluciones para hacer frente a la amenaza de los deepfakes, pero la confianza es baja, ya que el estudio identifica una preocupación generalizada de que las organizaciones no están haciendo lo suficiente para combatirlos. A más de dos tercios (62%) les preocupa que su organización no se esté tomando la amenaza de los deepfakes lo suficientemente en serio. 

La encuesta muestra el reconocimiento por parte de las organizaciones de que la amenaza de los deepfakes es una amenaza real y presente. Pueden utilizarse contra las personas de numerosas formas perjudiciales, como la difamación y el daño a la reputación, pero quizá el riesgo más cuantificable sea el fraude financiero. En este caso, pueden utilizarse para cometer fraudes de identidad a gran escala suplantando la identidad de personas con el fin de obtener acceso no autorizado a sistemas o datos, iniciar transacciones financieras o engañar a otros para que envíen dinero a la escala de la reciente estafa deepfake de Hong Kong. La cruda realidad es que los deepfakes suponen una amenaza en cualquier situación en la que una persona necesite verificar su identidad a distancia, pero a los encuestados les preocupa que las organizaciones no se estén tomando la amenaza lo suficientemente en serio.

"Llevamos años observando deepfakes, pero lo que ha cambiado en los últimos seis a doce meses es la calidad y la facilidad con que pueden crearse y causar destrucción a gran escala tanto a organizaciones como a particulares", afirma Andrew Bud, fundador y CEO de iProov. "Tal vez el uso más pasado por alto de las deepfakes es la creación de identidades sintéticas que, al no ser reales y no tener un propietario que denuncie su robo, pasan en gran medida desapercibidas mientras causan estragos y defraudan millones de dólares a organizaciones y gobiernos." 

"Y a pesar de lo que algunos puedan creer, ahora es imposible detectar a simple vista deepfakes de calidad. Aunque nuestra investigación indica que la mitad de las organizaciones encuestadas se han encontrado con un deepfake, lo más probable es que esta cifra sea mucho mayor porque la mayoría de las organizaciones no están debidamente equipadas para identificar deepfakes. Con el rápido ritmo al que innova el panorama de las amenazas, las organizaciones no pueden permitirse ignorar las metodologías de ataque resultantes y cómo la biometría facial se ha distinguido como la solución más resistente para la verificación remota de la identidad", añade Andrew Bud.

Matices regionales

El estudio también revela algunas percepciones bastante matizadas de los deepfakes a escala mundial. Las organizaciones de APAC (51%), Europa (53%) y LATAM (53%) son significativamente más propensas que las de Norteamérica (34%) a decir que se han encontrado con un deepfake. Las organizaciones de APAC (81%), Europa (72%) y Norteamérica (71%) son significativamente más propensas que las de LATAM (54%) a creer que los ataques de deepfake tendrán un impacto en su organización.

En medio del cambiante panorama de las amenazas, las tácticas empleadas para penetrar en las organizaciones suelen reflejar las utilizadas en el fraude de identidad. Como era de esperar, los deepfakes ocupan ahora el tercer lugar entre las preocupaciones más frecuentes de los encuestados, con el siguiente orden: violación de contraseñas (64 %), ransomware (63 %), phishing/ataques de ingeniería social (61 %) y deepfakes (61 %).

La IA no es del todo mala

Hay muchos tipos diferentes de deepfakes, pero todos tienen un denominador común: se crean utilizando herramientas de IA generativa. Las organizaciones reconocen que la IA generativa es innovadora, segura, fiable y les ayuda a resolver problemas. La consideran más ética que contraria a la ética y creen que tendrá un impacto positivo en el futuro. Y están tomando medidas: sólo el 17% no ha aumentado su presupuesto en programas que abarquen el riesgo de la IA. Además, la mayoría ha introducido políticas sobre el uso de nuevas herramientas de IA.

La biometría lidera la lucha contra los deepfakes

La biometría se ha convertido en la solución elegida por las organizaciones para hacer frente a la amenaza de los deepfakes. Las organizaciones declararon que es más probable que utilicen biometría facial y dactilar; sin embargo, el tipo de biometría puede variar en función de las tareas. Por ejemplo, el estudio reveló que las organizaciones consideran que la biometría facial es el modo de autenticación adicional más adecuado para protegerse de las falsificaciones en el acceso a cuentas, los cambios de datos personales y las transacciones habituales. 

El software no basta

Del estudio se desprende claramente que las organizaciones consideran la biometría como un área de especialización y casi todas (94%) están de acuerdo en que un socio de seguridad biométrica debe ser algo más que un simple producto de software. Las organizaciones encuestadas afirmaron que buscan un proveedor de soluciones que evolucione y siga el ritmo del panorama de las amenazas, con una supervisión continua (80%), biometría multimodal (79%) y detección de la vitalidad (77%), todos ellos muy destacados en sus requisitos para proteger adecuadamente las soluciones biométricas contra las falsificaciones profundas.

Metodología de la encuesta

Lo bueno, lo malo y lo feo Encuesta se realizó en colaboración con Hanover Research. Se reclutó a 500 encuestados de todo el mundo en sectores como la banca, el comercio electrónico, las finanzas y la contabilidad, la sanidad y la medicina, la hostelería, los seguros, el comercio minorista, las telecomunicaciones y los viajes. La encuesta se realizó a través de un panel de terceros y se administró en línea en la primavera de 2024. Los encuestados eran profesionales de los departamentos de TI, Operaciones, Seguridad de Redes, Ciberseguridad, Experiencia Digital, Gestión de Riesgos o Gestión de Productos con responsabilidad primaria en la toma de decisiones en la selección y compra de soluciones de ciberseguridad para su organización.

iProov Informe sobre lo bueno, lo malo y lo feo Infografía 1