En todo el mundo, gobiernos, responsables políticos y reguladores están prestando atención al tema de la inteligencia artificial generativa (IA). Esta tecnología reduce enormemente la barrera tecnológica para crear imágenes, vídeos y audio falsos de gran realismo.

A medida que se desarrolle la IA generativa, será cada vez más difícil distinguir entre contenidos reales y manipulados, lo que conducirá a la desinformación, la propaganda y el engaño a gran escala. Esto amenaza con erosionar la confianza y desdibujar los límites entre realidad y ficción, desafiando en última instancia la función de una sociedad civil eficaz.

En este artículo tratamos el tema de la IA generativa, junto con las herramientas, métodos y tecnologías disponibles para combatir la creciente amenaza.

¿Por qué la IA generativa representa una amenaza creciente?

La IA no es intrínsecamente perjudicial: existen muchas aplicaciones beneficiosas y positivas. Sin embargo, hay una serie de factores que hacen que aumente la preocupación por sus enormes capacidades para fines nefastos:

  • El volumen de ataques de ciberseguridad impulsados por la tecnología de IA está aumentando a un ritmo alarmante: Por ejemplo, iProov reveló que los ataques de intercambio de rostros están aumentando en frecuencia: nuestro informe Biometric Threat Intelligence Report destaca que los intercambios de rostros aumentaron un 295% de H1 a H2 en 2022.
  • La ciberdelincuencia impulsada por IA se ha vuelto mucho más accesible y escalable: Los delincuentes poco cualificados están obteniendo acceso a los recursos necesarios para lanzar ataques sofisticados a bajo coste, o incluso gratis, en línea. Esto hace que sea más fácil para los malos actores ganar puntos de apoyo en los sistemas de información y ciberseguridad de las organizaciones. Del mismo modo, la accesibilidad de esta tecnología puede facilitar que los estafadores convenzan a los individuos de que están interactuando con una persona auténtica, lo que facilita aún más la ciberdelincuencia y el fraude.
  • La sofisticación de la IA generativa se está desarrollando rápidamente, y la gente ya no puede detectar deepfakes: Los medios sintéticos han llegado a un punto en el que esimposible distinguir entre lo que es falso y lo que es real con el ojo humano, por lo que la inspección manual no es una solución viable. Del mismo modo, los enfoques que hacen recaer en las personas la responsabilidad de detectar los medios sintéticos sólo tendrán un impacto limitado.
  • Crecimiento de la delincuencia como servicio: La IA generativa está empoderando a los malos actores, y la disponibilidad de herramientas en línea está acelerando la evolución del panorama de las amenazas. Esto permite a los delincuentes lanzar ataques avanzados más rápidamente y a mayor escala. Si los ataques tienen éxito, aumentan rápidamente en volumen y frecuencia a medida que se comparten entre redes establecidas de delincuencia como servicio o en la darkweb, amplificando el riesgo de daños graves.
  • Percepción pública y desinformación: La IA generativa no sólo amenaza a organizaciones individuales o gobiernos, sino también al ecosistema de la información y a la propia economía. Esto ya está teniendo efectos en el mundo real: por ejemplo, recientemente una imagen generada por IA de una explosión en el Pentágono provocó una breve caída de la bolsa.

Las repercusiones de la IA generativa en la sociedad son infinitas: fraude en las prestaciones del sector público, fraude de cuentas nuevas, identidad sintética, fraude, fraude electoral, desinformación, bots engañosos en las redes sociales, robocalls, etc.

Los peligros de combinar distintos tipos de IA -como imágenes, voz y texto- plantean una amenaza sinérgica de tecnologías en rápida evolución que pueden utilizarse conjuntamente para lograr un impacto masivo. Aquí puedes informarte sobre los riesgos críticos y urgentes de las burlas de voz en particular.

La preocupante tendencia de la IA generativa ha captado la atención de gobiernos y responsables políticos de todo el mundo

Veamos algunos ejemplos:

En última instancia, ahora existe una carrera armamentística entre los usos destructivos de la IA generativa y las herramientas que tenemos para defendernos de ellos. El resultado potencial es una crisis de identidad en la era digital, en la que el público no puede confiar en los medios de comunicación ni en los funcionarios públicos.

Respuesta de iProov a la protección contra las amenazas de la IA generativa

Cada vez será más difícil para los gobiernos, las empresas, los periodistas y el público en general combatir o detectar el fraude, la desinformación y la ciberdelincuencia. Esto es especialmente pertinente ahora que se acercan muchas elecciones políticas importantes en todo el mundo.

¿Qué pueden hacer los gobiernos y los responsables políticos? ¿Qué normativas y tecnologías existen? En resumen:

  • La verificación biométrica de la identidad facial, con liveness y gestión activa de amenazas, es fundamental: en una época en la que las tecnologías tradicionales y el ojo humano ya no pueden verificar la autenticidad de una persona a distancia, la verificación biométrica de la identidad es necesaria para garantizar que una persona es la verdadera propietaria de su identidad, contenido y posición. Las soluciones más eficaces incorporan la tecnología liveness de misión crítica con un sistema biométrico de un solo uso y gestión activa de amenazas, que puede determinar si la imagen presentada es una persona real y que la persona está realmente presente en el momento en que se está capturando la información.
  • El acceso y la autenticación a distancia deben ser más seguros: La verificación biométrica facial se ha convertido en la forma más segura y cómoda de verificar la identidad en línea, ya que los métodos tradicionales, como las contraseñas y los códigos de un solo uso, han fracasado. Sin embargo, al enfrentarse a la IA generativa, es fundamental que se evalúen a fondo las capacidades de liveness. Lo bueno no es suficiente; la seguridad debe ser primordial para las organizaciones.
  • La regulación tiene que establecer barandillas para la mayoría moral: Es fundamental establecer marcos jurídicos que aborden las implicaciones éticas y sociales de la IA generativa y los medios sintéticos. De este modo, las fuerzas del orden pueden centrarse en los malos con directrices claras, al tiempo que se proporcionan impulsos comerciales para abordar los incentivos de las plataformas. iProov ha presentado su respuesta al PCAST sobre este tema a varios gobiernos y responsables políticos de todo el mundo.

Enfoque gubernamental y político de la IA: resumen

En última instancia, la IA generativa plantea un riesgo significativo para la sociedad. Se necesita urgentemente una política y una regulación claras para establecer los guardarraíles, alinear a la mayoría moral y guiar la respuesta de las organizaciones.

La tecnología biométrica y de verificación de la identidad ofrece un salvavidas fundamental para los gobiernos y otras organizaciones que necesitan garantizar a las personas quiénes dicen ser en la era de las imágenes y la información sintéticas y falsificadas.

Pero no sirve cualquier tecnología de verificación. A medida que avance la IA generativa, las defensas tendrán que seguir el ritmo: son esenciales soluciones de misión crítica que evolucionen continuamente.

iProov ha publicado su informe "Identity Crisis in the Digital Age: Using Science-Based Biometrics to Combat Generative AI". En él examinamos el aspecto delictivo de la IA generativa, debatimos el "déficit de confianza" que amenaza con socavar la capacidad de las naciones para alcanzar los objetivos de desarrollo sostenible y asesoramos sobre la tecnología y los procesos necesarios para combatir esta amenaza.

Si lo prefiere, reserve hoy mismo una demostración de la solución iProov.

Inteligencia artificial generativa en el sector público: el papel de la biometría facial