30 de novembro de 2023
Deepfakes e outras mídias sintéticas - em grande parte criadas pela tecnologia de IA generativa - estão se tornando cada vez mais conhecidas, e agora é amplamente aceito que a mídia sintética é um problema para indivíduos, organizações e sociedade.
As deepfakes vêm em muitas formas, como reencenações, trocas de rosto e redes adversárias generativas (GANs). É essencial entender as diferentes formas de ataques de deepfake para se defender contra eles.
A questão da IA generativa é particularmente urgente, pois a frequência desses ataques está aumentando, já que se torna cada vez mais fácil criar imagens sintéticas convincentes. Como a IA generativa continua avançando em sofisticação, acessibilidade e escalabilidade, será cada vez mais difícil confiar no que vemos e com quem interagimos on-line.
Neste artigo, desmistificaremos o mundo frequentemente complexo da fraude baseada em IA generativa e explicaremos as metodologias por trás de cada tipo.
O que é IA generativa?
A Inteligência Artificial (IA) generativa refere-se a algoritmos que podem gerar novo conteúdo, inclusive texto, imagens, vídeo ou outras mídias, em resposta a uma determinada entrada ou solicitação. Com frequência, aproveitando tecnologias como redes neurais e visão computacional, a IA generativa aprende com padrões e estruturas de "dados de treinamento" existentes para criar conteúdo. Por exemplo, a "IA analítica" serve para analisar dados existentes e automatiza o processo de detectar padrões ou extrapolar tendências, o que pode ser útil em áreas como medicina e dados de saúde.
A IA generativa conquistou o zeitgeist tecnológico, com igual quantidade de admiração e controvérsia em torno de ferramentas como o Chat-GPT. Essas ferramentas podem acelerar significativamente a criação de conteúdo, mas há uma preocupação real sobre como elas podem ser usadas como arma pelos criminosos na corrida armamentista da segurança cibernética, reforçando a fraude e a engenharia social, a desinformação e o crime cibernético por meio de conteúdo sintético manipulador.
Além disso, a crescente acessibilidade das ferramentas de IA generativas nos mercados de crime como serviço significa que os invasores menos experientes em tecnologia agora têm acesso fácil e acessível a ferramentas sofisticadas para criar mídia sintética. As opções de software de mais alta tecnologia de ontem agora são comuns, à medida que a barreira tecnológica desaparece.
Uma prova recente da qualidade dessas falsificações geradas por IA foi apresentada em um estudo realizado pelo Center for Strategic and International Studies (Centro de Estudos Estratégicos e Internacionais), que indica que "atingimos o ponto de inflexão em que os humanos não conseguem distinguir significativamente entre conteúdo digital gerado por IA e conteúdo digital criado por humanos".
Neste artigo, estamos nos concentrando especialmente na IA generativa usada para criar imagens sintéticas, incluindo deepfakes.
Entendendo os diferentes tipos de ataques Deepfake
Vamos parar um pouco para entender algumas das formas de ataques de IA generativa.
Troca de faces: Uma forma de mídia sintética criada usando duas entradas. Eles combinam vídeos existentes ou transmissões ao vivo e sobrepõem outra identidade ao feed original em tempo real. O resultado final é uma saída de vídeo 3D falsa, que é mesclada a partir de mais de um rosto, mas com o modelo biométrico do indivíduo genuíno ainda intacto, mesmo que visualmente a semelhança seja mais próxima da do invasor. Um identificador de rosto sem as defesas adequadas pode identificar o resultado como o indivíduo genuíno.
Reencenações: Também conhecidas como deepfakes de "mestre de marionetes". Nessa técnica, a expressão facial e os movimentos da pessoa no vídeo ou na imagem de destino são controlados pela pessoa no vídeo de origem. Um artista sentado na frente de uma câmera orienta o movimento e a deformação de um rosto que aparece em um vídeo ou imagem. Enquanto as trocas de rosto substituem a identidade de origem pela identidade de destino (manipulação de identidade), as reencenações lidam com a manipulação das expressões faciais de uma entrada por vez.
Redes Adversariais Generativas (GANs): Uma GAN funciona por meio de dois modelos de IA que competem entre si para criar o resultado mais "preciso" ou autêntico possível de um deepfake. Os dois modelos - um generativo e outro discriminatório - criam e destroem em conjunto. O modelo generativo cria conteúdo com base nos dados de treinamento disponíveis para imitar os exemplos nos dados de treinamento. Enquanto isso, um modelo discriminativo testa os resultados do modelo generativo, avaliando a probabilidade de a amostra testada ser proveniente do conjunto de dados e não do modelo generativo. Os modelos continuam a se aperfeiçoar até que o conteúdo gerado tenha a mesma probabilidade de ser proveniente do modelo generativo e dos dados de treinamento. Esse método é tão eficaz porque melhora o resultado de sua própria autenticidade, verificando constantemente as próprias ferramentas criadas para superá-lo.
Como os ataques de IA generativa são normalmente usados pelos fraudadores?
Criar e usar imagens sintéticas geradas por IA não é inerentemente criminoso. No entanto, as imagens sintéticas são, infelizmente, um presente para os criminosos cibernéticos, ajudando em crimes como extorsão e assédio, disseminando propositalmente desinformação política ou facilitando fraudes de identidade e de documentos (como a tentativa de contornar as verificações de identidade exigidas pelas regulamentações do Know Your Customer).
As formas comuns de fraude apoiadas por imagens sintéticas incluem:
Qual é a diferença entre mídia sintética alterada digitalmente e mídia sintética gerada digitalmente?
A mídia sintética é o resultado da IA generativa, mas nem toda mídia sintética é criada pela IA generativa.
A IA generativa gera dados totalmente novos que são únicos e originais, em vez de simplesmente processar, analisar e modificar os dados existentes. Essa distinção pode ser resumida como imagens geradas digitalmente versus imagens alteradasdigitalmente.
Por que todos estão falando sobre IA generativa?
Embora a IA possa oferecer uma série de casos de uso positivos - incluindo automação de tarefas, inspiração criativa e análise de conjuntos de dados complexos -, os perigos da IA generativa estão atualmente ocupando o centro do palco.
Observação: o Google Trends representa o número de pesquisas orgânicas para um termo específico ao longo do tempo; os dados do gráfico são normalizados em um intervalo de 0 a 100 e são chamados de "interesse ao longo do tempo".
Uma coisa é certa: a IA generativa está avançando rapidamente e promete impactos profundamente disruptivos e transformadores em vários setores.
A IA generativa despertou o interesse do público, dos formuladores de políticas e dos governos. Você pode saber mais sobre a IA generativa e o setor público neste artigo, que fornece uma lista de respostas de governos e formuladores de políticas em todo o mundo e detalha como a iProov está se protegendo contra a ameaça.
No mundo digital atual, há uma superfície de ataque digital maior, com um número maior e uma variedade maior de transações de alto risco ocorrendo on-line, o que geralmente significa maiores recompensas para os fraudadores. Em última análise, a preocupação é como os malfeitores podem utilizar a mídia sintética gerada por IA para fins fraudulentos e para facilitar a disseminação de informações falsas on-line.
Considerações finais sobre IA generativa e verificação biométrica de faces
Um rosto humano genuíno é único e não pode ser replicado de verdade, e é por isso que a verificação biométrica facial surgiu como o método mais seguro e conveniente de verificar a identidade do usuário on-line.
Uma coisa é certa: a tecnologia biométrica servirá como uma tábua de salvação para verificar a presença genuína remotamente, principalmente porque as réplicas não podem mais ser distinguidas pelo olho humano. Na verdade, somente os sistemas mais avançados que estão lutando contra essa corrida armamentista em rápida expansão estão equipados para reconhecer a IA generativa.
Como a iProov pode ajudar
Para verificar um deepfake, a iProov utiliza uma tecnologia biométrica única patenteada com tecnologias de aprendizagem profunda e visão computacional para analisar determinadas propriedades que a mídia generativa criada por IA não pode recriar, pois não há uma pessoa real do outro lado da câmera. É por isso que ter uma biometria em tempo real incorporada à tecnologia de vivacidade é fundamental para que as organizações possam distinguir entre mídia sintética e pessoas genuínas.
Para saber mais sobre como os fraudadores estão aproveitando a IA generativa para minar a verificação de identidade e reforçar a fraude de identidade sintética, leia nosso novo relatório "Stolen to Synthetic" aqui.