Proteja su empresa de las falsificaciones profundas con la detección dinámica de la vitalidad

El auge de la IA generativa ha hecho que la creación de medios sintéticos realistas sea alarmantemente fácil para los actores maliciosos, lo que plantea amenazas significativas para los procesos de verificación de identidad a distancia. Como ilustra este breve clip de intercambio de caras generado por el equipo científico de iProov en menos de 30 minutos, la creciente accesibilidad de las herramientas de IA generativa permite a los ciberdelincuentes crear fácilmente falsificaciones realistas que pueden eludir las soluciones básicas de detección de vitalidad.

Vea este ejemplo para comprender de inmediato los peligros que plantean los medios sintéticos y la necesidad crítica de medidas de seguridad más sólidas para combatir estos ataques avanzados:

¿Qué es un intercambio de caras?

A intercambio de caras es una forma de deepfake forma de deepfake En este tipo de intercambio de rostros, se utilizan señales de un vídeo de origen (bajo el control del actor de la amenaza) y se injerta de forma realista un rostro en otro mediante tecnología de IA. Los intercambios de rostros combinan imágenes y vídeos existentes para superponer otra identidad sobre la fuente original en tiempo real.

Como demuestra este ejemplo, hoy en día existen herramientas peligrosas que facilitan enormemente la creación de intercambios de rostros hiperrealistas. Aunque la tecnología detrás de estas herramientas es avanzada, a menudo son fáciles de usar con un enfoque "plug-and-play" - lo que significa que incluso los atacantes no expertos en tecnología pueden generar intercambios de caras y otros tipos de medios sintéticos con conocimientos mínimos de codificación necesarios, aumentando la accesibilidad y la frecuencia de los ataques. 

iProov ha compartido valiosos datos de producción para demostrarlo. Hemos descubierto un asombroso aumento del 704% en los ataques de intercambio de caras hasta 2023 en nuestro último informe de inteligencia sobre amenazas.

Nuestros analistas siguen de cerca más de 110 herramientas y repositorios de intercambio de rostros diferentes, como SwapFace, DeepFaceLive y Swapstream, a medida que evolucionan rápidamente.

En última instancia, los malos actores pueden ahora crear deepfakes cada vez más realistas en menos tiempo que nunca. El riesgo que plantean las deepfakes es importante, ya que pueden socavar la confianza en los medios digitales y facilitar la usurpación de identidad y otros ciberdelitos.

¿Por qué es un problema el auge de la IA generativa, los medios sintéticos y los intercambios de caras?

Los deepfakes y otros medios sintéticos suponen una amenaza importante para todos los métodos de verificación a distanciaincluidos los productos de videoconferencia. Los malos actores pueden potencialmente:

Esto puede permitir a los delincuentes eludir sus medidas de seguridad de incorporación y autenticación y obtener acceso no autorizado a sistemas o cuentas confidenciales. Esto puede conducir al robo de identidad, fraude financiero, compromiso del sistema y pérdidas devastadoras para las organizaciones afectadas.

Los deepfakes se vuelven especialmente peligrosos cuando se despliegan en ataques de inyección digital, ya que pueden escalarse muy rápidamente para causar daños significativos. Los ataques de inyección digital son ciberataques sofisticados, altamente escalables y replicables que se inyectan en un flujo de datos o eluden por completo la cámara del dispositivo. En última instancia, estos ataques y el uso de deepfakes se están disparando:

Las estafas por deepfake son cada vez más sofisticadas y tienen mayores consecuencias, como lo demuestra un incidente reciente en el que un profesional de las finanzas en Hong Kong fue engañado por una videollamada fraudulenta de deepfake para transferir la asombrosa cantidad de 25 millones de dólares..

Las organizaciones de todos los tamaños deben aplicar urgentemente medidas sólidas de autenticación de la identidad. los peligros financieros son demasiado reales:

Cómo se defiende iProov de estas amenazas

La defensa multicapa de iProov distingue eficazmente a los usuarios reales de los vídeos deepfake durante la incorporación y la autenticación. Nuestro exclusivo mecanismo pasivo de desafío-respuesta aprovecha la tecnología flashmark patentada para iluminar la cara del usuario con una secuencia de colores aleatoria, analizando los reflejos de luz para confirmar la presencia y frustrar sofisticados ataques de inyección digital y deepfake.

La adopción criminal de emuladores, cámaras virtuales y técnicas de suplantación de metadatos significa que las organizaciones ya no pueden confiar en los datos de los dispositivos, lo que amplía la superficie de ataque para los actores de amenazas. iProov también utiliza capacidades de detección de inyecciones de última generación para combatir esto con sólidas capacidades de detección de inyecciones y metadatos; nuestro método de entrega basado en la nube combinado con la supervisión continua de amenazas significa que las actualizaciones de seguridad se pueden aplicar rápidamente (a diferencia de las soluciones locales o basadas en dispositivos, que son en gran medida estáticas, ya que se vuelven obsoletas en el momento en que un actor de amenazas tiene éxito).

Capacidad de respuesta en múltiples entornos con implantación en la nube y un Centro de Operaciones de Seguridad (SOC) es vital para detectar y prevenir amenazas generativas de IA como las deepfakes de forma continua. Esta es la especialidad de iProov: ofrecer la garantía de identidad más sólida del sector para proteger frente a las nuevas y cambiantes amenazas de medios sintéticos dirigidas a los procesos de identidad.

Ante la rápida evolución de las amenazas de deepfake, iProov ofrece la solución de garantía de identidad más sólida del sector para proteger su empresa. Nuestras tecnologías patentadas, como Flashmark, garantizan que solo los usuarios legítimos puedan acceder a sus sistemas al tiempo que ofrecen una experiencia fluida. Es por eso que somos el socio de elección para la verificación de identidad remota segura entre los líderes mundiales como el Departamento de Seguridad Nacional de Estados Unidos, ING, el Ministerio del Interior del Reino Unido y muchos otros.

iProov también se convirtió recientemente en el primer proveedor biométrico en lograr la certificación de la Alianza FIDO para la Verificación de Identidad Biométrica Facial en un riguroso proceso dirigido por Ingenium Biometrics. La certificación se obtuvo tras nada menos que 10.000 pruebas, y Dynamic Liveness de iProov logró un historial de éxito impecable, sin que ningún ataque superara el sistema. Estos resultados establecieron un nuevo punto de referencia en cuanto a precisión y fiabilidad, logrando una tasa de aceptación de presentación de ataques de impostores (IAPAR) del 0% y una tasa de falsos rechazos (FRR) del 0,14%.

No deje que su organización sea vulnerable a las pérdidas financieras y al daño a la reputación provocados por el fraude de deepfake. Proteja sus procesos de identidad con las defensas de medios sintéticos de vanguardia de iProov, en las que confían líderes mundiales de todo el mundo. Reserve su demostración hoy mismo y descubra cómo iProov puede proteger su empresa contra estas amenazas.

iProov: Confianza para proteger

Sello del Departamento de Seguridad Nacional de los Estados Unidos.svg 1
Logotipo de UBS
Copia del logotipo del Gobierno de Australia
Logotipo GovTech
Logotipo del SNS
Logotipo de ING
Banco Knab

Cumplimos la estricta normativa para que usted no tenga que hacerlo

eidas
Logotipo de certificación CSA Star
Logotipo de certificación WCAG W3c 2.2 AA

Programe su demostración gratuita