Proteja a sua empresa contra falsificações profundas com a deteção dinâmica de vivacidade
O aumento da IA generativa tornou a criação de meios sintéticos realistas assustadoramente fácil para os agentes maliciosos, colocando ameaças significativas aos processos de verificação remota da identidade. Como ilustra este pequeno clip de troca de rostos gerado pela equipa científica do iProov em menos de 30 minutos, a crescente acessibilidade das ferramentas de IA generativa permite que os agentes maliciosos criem facilmente deepfakes realistas que podem contornar as soluções básicas de deteção de vivacidade.
Veja este exemplo para compreender imediatamente os perigos colocados pelos media sintéticos e a necessidade crítica de medidas de segurança mais robustas para combater estes ataques avançados:
O que é uma troca de rosto?
A troca de faces é uma forma particularmente maliciosa e sofisticada forma de deepfake A troca de rostos é uma forma particularmente maliciosa e sofisticada de deepfake, que consiste em utilizar pistas de um vídeo de origem (sob o controlo do agente da ameaça) e um rosto-alvo é realisticamente enxertado noutro usando tecnologia de IA. As trocas de rostos combinam imagens e vídeos existentes para sobrepor outra identidade ao vídeo original em tempo real.
Como este exemplo demonstra, estão agora disponíveis ferramentas perigosas que tornam surpreendentemente fácil a criação de trocas de rostos hiper-realistas. Embora a tecnologia por detrás destas ferramentas seja avançada, são muitas vezes fáceis de utilizar com uma abordagem "plug-and-play", o que significa que mesmo os atacantes que não têm conhecimentos técnicos podem gerar trocas de rostos e outros tipos de meios sintéticos com um mínimo de competências de codificação, aumentando a acessibilidade e a frequência dos ataques.
A iProov partilhou dados valiosos em produção para o provar. Descobrimos um aumento impressionante de 704% nos ataques de troca de rosto em 2023 em nosso último relatório de inteligência sobre ameaças.
Os nossos analistas continuam a seguir mais de 110 ferramentas e repositórios de troca de rostos diferentes, como o SwapFace, o DeepFaceLive e o Swapstream, à medida que estes evoluem rapidamente.
Em última análise, os maus actores podem agora criar deepfakes cada vez mais realistas em menos tempo do que nunca. O risco representado pelas falsificações profundas é significativo, uma vez que podem minar a confiança nos meios digitais e facilitar o roubo de identidade e outros crimes informáticos.
Porque é que a ascensão da IA generativa, dos meios sintéticos e da troca de rostos é um problema?
As falsificações profundas e outros suportes sintéticos representam uma ameaça significativa para todos os métodos de verificação à distânciaincluindo os produtos de videoconferência. Os maus actores podem potencialmente:
- Apresentar fisicamente um vídeo deepfake num dispositivo digital para contornar as verificações básicas de vivacidade.
- Injetar digitalmente vídeos ou imagens deepfake ou imagens no processo de integração/autenticação remota.
- Utilizar meios sintéticos juntamente com documentos de identidade falsos para se fazerem passar por pessoas legítimas - ou criar identidades novas e fictícias a partir de informações reais e falsas com documentação aparentemente legítima.
Isto pode permitir que os maus actores contornem as suas medidas de segurança de integração e autenticação e obtenham acesso não autorizado a sistemas ou contas sensíveis. Isto pode levar a roubo de identidade, fraude financeira, comprometimento do sistema e perdas devastadoras para as organizações afectadas.
Os deepfakes tornam-se particularmente perigosos quando utilizados em ataques por injeção digital, uma vez que podem ser escalados muito rapidamente para causar danos significativos. Os ataques de injeção digital são ciberataques sofisticados, altamente escaláveis e replicáveis que são injectados num fluxo de dados ou contornam totalmente a câmara do dispositivo. Em última análise, estes ataques e a utilização de deepfakes estão a disparar:
- A iProov registou um aumento de 255% nos ataques de injeção digital contra plataformas Web móveis entre o primeiro e o segundo semestre de 2023.
- A iProov registou um aumento de 353% nos agentes de ameaças que utilizam emuladores, uma forma de ataque de injeção de vídeo, entre o primeiro e o segundo semestre de 2023.
Os esquemas de deepfake estão a tornar-se cada vez mais sofisticados e consequentes, tal como evidenciado por um incidente recente em que um profissional de finanças em Hong Kong foi enganado por uma videochamada deepfake fraudulenta e transferiu 25 milhões de dólares.
As organizações de todas as dimensões devem implementar urgentemente medidas robustas de autenticação de identidade - os perigos financeiros são demasiado reais. os perigos financeiros são demasiado reais:
- As organizações gastaram entre 5 e 25 milhões de dólares em custos operacionais para investigar, combater ou retificar crimes financeiros em 2023 - e muitos esperam que este valor aumente ainda mais.
- Estatísticas recentes revelam que 26% das pequenas e 38% das grandes organizações sofreram fraudes de deepfake no ano passado, com perdas que atingiram até 480.000 dólares.
- Um terço das empresas comunicou ataques de vídeo e áudio ataques de deepfake em abril de 2023
Como o iProov se defende contra essas ameaças
A defesa multicamada do iProov distingue eficazmente os utilizadores vivos dos vídeos deepfake durante a integração e a autenticação. O nosso mecanismo exclusivo de desafio-resposta passivo utiliza a tecnologia patenteada de flashmark para iluminar o rosto do utilizador com uma sequência de cores aleatória, analisando os reflexos da luz para confirmar a vivacidade e impedir ataques sofisticados de injeção digital e deepfake.
A adoção criminosa de emuladores, câmaras virtuais e técnicas de falsificação de metadados significa que as organizações já não podem confiar nos dados dos dispositivos, alargando a superfície de ataque para os agentes de ameaças. O iProov também utiliza capacidades de deteção de injecções de última geração para combater esta situação, com capacidades robustas de deteção de injecções e metadados; o nosso método de entrega baseado na nuvem, combinado com a monitorização contínua de ameaças, significa que as actualizações de segurança podem ser aplicadas rapidamente (ao contrário das soluções locais ou baseadas em dispositivos, que são em grande parte estáticas, uma vez que se tornam obsoletas no momento em que um agente de ameaças é bem sucedido).
Vivacidade multi-frame com implantação na nuvem e um Centro de Operações de Segurança (SOC) é vital para detetar e prevenir ameaças geradoras de IA, como as deepfakes, numa base contínua. Esta é a especialidade da iProov: fornecer a garantia de identidade mais robusta do sector para proteger contra ameaças de meios sintéticos novas e em evolução que visam os processos de identidade.
Face à rápida evolução das ameaças de deepfake, a iProov fornece a solução de garantia de identidade mais robusta do sector para proteger a sua empresa. Nossas tecnologias patenteadas, como Flashmark™, garantem que apenas usuários legítimos possam acessar seus sistemas, proporcionando uma experiência perfeita. É por isso que somos o parceiro de escolha para verificação de identidade remota segura entre líderes globais como o Departamento de Segurança Interna dos EUA, ING, o Ministério do Interior do Reino Unido e muitos outros.
A iProov também se tornou recentemente o primeiro fornecedor biométrico a obter a certificação da FIDO Alliance para a Verificação de Identidade Biométrica Facial, num rigoroso processo conduzido pela Ingenium Biometrics. A certificação foi obtida após nada menos que 10.000 testes, e o Dynamic Liveness do iProov obteve um registo de sucesso sem falhas, sem que nenhum ataque passasse pelo sistema. Estes resultados estabeleceram uma nova referência em termos de precisão e fiabilidade, alcançando uma taxa de aceitação de apresentação de ataques de impostores de 0% (IAPAR) e uma taxa de falsa rejeição de 0,14% (FRR).
Não deixe sua organização vulnerável a perdas financeiras e danos à reputação causados por fraudes deepfake. Proteja seus processos de identidade com as defesas de mídia sintética de ponta da iProov, confiadas por líderes globais em todo o mundo. Reserve sua demonstração hoje e saiba como o iProov pode proteger sua empresa contra essas ameaças.