Enciclopedia biométrica

IA Generativa

La IA generativa se refiere a los sistemas de inteligencia artificial que pueden generar nuevos datos, como imágenes, audio, texto y medios sintéticos, en lugar de limitarse a analizar los datos existentes. Utiliza modelos de aprendizaje automático como las redes generativas adversariales (GAN) y modelos de difusión entrenados en grandes conjuntos de datos para producir resultados novedosos que imitan los patrones de los datos de entrenamiento.

Entre las aplicaciones habituales de la IA generativa se incluye la creación de deepfakes (por ejemplo, intercambios de caras o clonación de voz), imágenes fotorrealistas, generación de música/arte y generación de texto similar al humano. Si bien permite nuevas posibilidades creativas, la capacidad de la IA generativa para producir medios sintéticos de gran realismo también introduce riesgos en torno a la desinformación, la suplantación de identidad y el fraude de identidad contra los que debe defenderse una sólida detección de la vitalidad.

La IA generativa ha revolucionado el campo de los medios sintetizados, permitiendo la creación de intercambios de caras de gran realismo y otros contenidos similares.

¿Cuál es la diferencia entre Deepfakes e IA Generativa?

El término deepfake se ha utilizado históricamente para referirse a imágenes sintéticas creadas mediante redes neuronales profundas. En la práctica, la IA generativa y los deepfakes se utilizan ahora se utilizan indistintamente, ya que existe un gran solapamiento, pero un deepfake se refiere más bien a un vídeo, una imagen o un fragmento de audio utilizado con fines maliciosos. audio con fines maliciosos.

Por el contrario, la IA generativa abarca la producción en cualquier medio (incluido el texto, como los modelos de lenguaje [LLM] como ChatGPT) para cualquier propósito. En resumen, los deepfakes son un subconjunto de la IA generativa.

¿Qué podemos hacer para combatir los ataques de IA generativa?

Para detectar medios sintéticos creados mediante IA generativa, son esenciales las tecnologías de verificación que utilizan IA contra IA.

Cuando se utiliza con la verificación facial biométrica, la IA mejora la precisión, la seguridad y la velocidad del proceso de verificación de la identidad. Los usuarios pueden verificar a distancia su identidad escaneando el documento de confianza de una persona y su rostro. Los modelos de aprendizaje profundo, como las redes neuronales convolucionales (CNN), detectan y comparan las imágenes. Al mismo tiempo detección de vitalidad utiliza la visión por ordenador para garantizar que las imágenes son de una persona real y no una falsificación sin vida, como un deepfake, una máscara u otros medios sintéticos.

La verificación biométrica facial sigue siendo uno de los métodos más fiables y cómodos para verificar la identidad a distancia y defenderse de los ataques generados por la IA. Sin embargo, no todas las tecnologías biométricas faciales son iguales. Los proveedores deben implementar sólidos mecanismos pasivos de desafío-respuesta para garantizar que un individuo remoto es una persona real y que se está verificando en tiempo real. Para ello, se necesita una tecnología basada en la ciencia que aproveche la inteligencia artificial para detectar con seguridad que un individuo es una persona "viva" (no una suplantación generativa de IA) y que está realmente presente y verificando en tiempo real.

El mecanismo pasivo de desafío-respuesta de iProov es Flashmark - La naturaleza aleatoria de la tecnología hace que sea impredecible, inmune a los ataques de repetición (cuando los actores de amenazas inyectan intentos de autenticación anteriores para eludir el sistema) e improbable de ingeniería inversa. Es la única manera de mitigar la IA generativa y los ataques de inyección digital detectando la presencia real con gran seguridad.

Más información: