12 de fevereiro de 2025
A maioria dos consumidores não consegue identificar falsificações geradas por IA;
Faça o teste de detecção de deepfake
Nova pesquisa do iProovlíder mundial no fornecimento de soluções de base científica para verificação de identidade biométricarevela que a maioria das pessoas não consegue identificar deepfakes, ou seja, vídeos e imagens incrivelmente realistas gerados por IA, geralmente criados para se passar por pessoas. O estudo testou 2.000 consumidores do Reino Unido e dos EUA, expondo-os a uma série de conteúdo real e deepfake. Os resultados são alarmantes: apenas 0,1% dos participantes conseguiram distinguir com precisão o conteúdo real do falso em todos os estímulos, incluindo imagens e vídeos.
Principais conclusões:
- A detecção de deepfake falha: Apenas 0,1% dos entrevistados identificaram corretamente todos os estímulos reais e deepfake (por exemplo, imagens e vídeos) em um estudo em que os participantes foram preparados para procurar deepfakes. Em cenários do mundo real, onde as pessoas são menos conscientes, a vulnerabilidade a deepfakes é provavelmente ainda maior.
- As gerações mais velhas são mais vulneráveis a deepfakes: O estudo constatou que 30% das pessoas entre 55 e 64 anos e 39% das pessoas com mais de 65 anos nunca tinham ouvido falar de deepfakes, destacando uma lacuna de conhecimento significativa e maior suscetibilidade a essa ameaça emergente por parte dessa faixa etária.
- Desafio de vídeo: Os vídeos deepfake se mostraram mais difíceis de identificar do que as imagens deepfake, com 36% menos probabilidade de os participantes identificarem corretamente um vídeo sintético em comparação com uma imagem sintética. Essa vulnerabilidade levanta sérias preocupações sobre a possibilidade de fraude baseada em vídeo, como falsificação de identidade em chamadas de vídeo ou em cenários em que a verificação por vídeo é usada para verificação de identidade.
- As deepfakes estão em toda parte, mas são mal compreendidas: Embora a preocupação com as deepfakes esteja aumentando, muitas pessoas ainda não conhecem a tecnologia. Um em cada cinco consumidores (22%) nunca tinha ouvido falar de deepfakes antes da pesquisa.
- O excesso de confiança é galopante: Apesar do desempenho ruim, as pessoas permaneceram excessivamente confiantes em suas habilidades de detecção de deepfake em mais de 60%, independentemente de suas respostas estarem corretas. Isso ocorreu principalmente entre os jovens adultos (18 a 34 anos). Essa falsa sensação de segurança é uma preocupação significativa.
- A confiança é afetada: As plataformas de mídia social são vistas como um terreno fértil para deepfakes, sendo o Meta (49%) e o TikTok (47%) vistos como os locais mais predominantes para encontrar deepfakes on-line. Isso, por sua vez, levou à redução da confiança nas informações e na mídia on-line - 49% confiam menos nas mídias sociais depois de saberem sobre deepfakes. Apenas um em cada cinco denunciaria uma suspeita de deepfake às plataformas de mídia social.
- Os deepfakes estão alimentando a preocupação e a desconfiança generalizadas, especialmente entre os adultos mais velhos: Três em cada quatro pessoas (74%) se preocupam com o impacto social dos deepfakes, sendo as "notícias falsas" e a desinformação a principal preocupação (68%). Esse medo é particularmente acentuado entre as gerações mais velhas, com até 82% das pessoas com mais de 55 anos de idade expressando preocupações sobre a disseminação de informações falsas.
- São necessários melhores mecanismos de conscientização e denúncia: Menos de um terço das pessoas (29%) não tomam nenhuma providência ao se deparar com uma suspeita de deepfake, o que provavelmente é motivado pelo fato de 48% dizerem que não sabem como denunciar deepfakes, enquanto um quarto não se importa se vir uma suspeita de deepfake.
- A maioria dos consumidores não consegue verificar ativamente a autenticidade das informações on-line, aumentando sua vulnerabilidade a deepfakes: Apesar da crescente ameaça da desinformação, apenas um em cada quatro procura fontes de informação alternativas se suspeitar de um deepfake. Apenas 11% das pessoas analisam criticamente a fonte e o contexto da informação para determinar se ela é um deepfake, o que significa que a grande maioria é altamente suscetível a enganos e à disseminação de narrativas falsas.
O professor Edgar Whitley, especialista em identidade digital da London School of Economics and Political Science, acrescenta: "Há algum tempo, os especialistas em segurança vêm alertando sobre as ameaças que as deepfakes representam para indivíduos e organizações. Este estudo mostra que as organizações não podem mais confiar no julgamento humano para identificar deepfakes e devem procurar meios alternativos de autenticar os usuários de seus sistemas e serviços."
"Apenas 0,1% das pessoas conseguiram identificar com precisão os deepfakes, o que ressalta o quanto as organizações e os consumidores estão vulneráveis à ameaça de fraude de identidade na era dos deepfakes", afirma Andrew Bud, fundador e CEO da iProov. "E mesmo quando as pessoas suspeitam de um deepfake, nossa pesquisa nos diz que a grande maioria das pessoas não toma nenhuma atitude. Os criminosos estão explorando a incapacidade dos consumidores de distinguir imagens reais de falsas, colocando em risco nossas informações pessoais e nossa segurança financeira. Cabe às empresas de tecnologia proteger seus clientes implementando medidas de segurança robustas. O uso da biometria facial com vivacidade fornece um fator de autenticação confiável e prioriza a segurança e o controle individual, garantindo que as organizações e os usuários possam acompanhar o ritmo e permanecer protegidos contra essas ameaças em evolução."
A crescente ameaça das deepfakes
Os deepfakes representam uma ameaça esmagadora no cenário digital atual e evoluíram em um ritmo alarmante nos últimos 12 meses. O Relatório de Inteligência sobre Ameaças de 2024 da iProov destacou um aumento de 704% apenas nas trocas de rosto (um tipo de deepfake). Sua capacidade de se passar por indivíduos de forma convincente faz com que sejam uma ferramenta poderosa para que os criminosos cibernéticos obtenham acesso não autorizado a contas e dados confidenciais. As deepfakes também podem ser usadas para criar identidades sintéticas para fins fraudulentos, como abrir contas falsas ou solicitar empréstimos. Isso representa um desafio significativo para a capacidade dos seres humanos de discernir a verdade da falsidade e tem implicações abrangentes para a segurança, a confiança e a disseminação da desinformação.
O que pode ser feito?
Com as falsificações profundas se tornando cada vez mais sofisticadas, os seres humanos sozinhos não conseguem mais distinguir de forma confiável o real do falso e, em vez disso, precisam contar com a tecnologia para detectá-las. Para combater a crescente ameaça das deepfakes, as organizações devem procurar adotar soluções que usem tecnologia biométrica avançada com detecção de vivacidade, que verifica se um indivíduo é a pessoa certa, uma pessoa real, e está se autenticando no momento. Essas soluções devem incluir a detecção contínua de ameaças e o aprimoramento contínuo das medidas de segurança para ficar à frente das técnicas de deepfake em evolução. Também deve haver maior colaboração entre provedores de tecnologia, plataformas e formuladores de políticas para desenvolver soluções que reduzam os riscos apresentados pelas deepfakes.
Faça o teste de detecção de deepfake
Você acha que é imune ao engano do deepfake? Coloque suas habilidades à prova! O iProov criou um teste on-line que o desafia a distinguir o real do falso. Faça o teste e veja como você se sai.