IA generativa
A IA generativa refere-se a sistemas de inteligência artificial que podem gerar novos dados, como imagens, áudio, texto e meios sintéticos, em vez de se limitarem a analisar os dados existentes. Utiliza modelos de aprendizagem automática como as Redes Adversárias Generativas (GAN) e modelos de difusão treinados em grandes conjuntos de dados para produzir novos resultados que imitam os padrões nos dados de treino.
As aplicações comuns de IA generativa incluem a criação de deepfakes (por exemplo trocas de rosto ou clonagem de voz), imagens fotorrealistas, criação de música/arte e geração de texto semelhante ao humano. Embora permita novas possibilidades criativas, a capacidade da IA generativa para produzir meios sintéticos altamente realistas também introduz riscos relacionados com a desinformação, a falsificação de identidade e a fraude de identidade, contra os quais a deteção robusta da vivacidade tem de se defender.
A IA generativa revolucionou o campo dos media sintetizados, permitindo a criação de trocas de rostos altamente realistas e outros conteúdos semelhantes.
Qual é a diferença entre Deepfakes e IA generativa?
O termo deepfake tem sido historicamente utilizado para designar imagens sintéticas criadas com recurso a redes neuronais profundas. Na prática, a IA generativa e as deepfakes são agora frequentemente utilizadas são agora muitas vezes utilizados indistintamente, uma vez que existe uma grande sobreposição, mas um deepfake refere-se mais provavelmente a um vídeo, imagem ou imagem ou áudio utilizado para fins maliciosos.
Em contrapartida, a IA generativa engloba a produção em qualquer suporte (incluindo texto, como modelos de linguagem [LLMs] como o ChatGPT) para qualquer fim. Em suma, os deepfakes são um subconjunto da IA generativa.
O que podemos fazer para combater os ataques da IA generativa?
Para detetar meios sintéticos criados com recurso a IA generativa, são essenciais tecnologias de verificação que utilizem IA contra IA.
Quando utilizada com a verificação biométrica do rosto, a IA melhora a exatidão, a segurança e a velocidade do processo de verificação da identidade. Os utilizadores podem verificar remotamente a sua identidade digitalizando o documento de confiança de uma pessoa e o seu rosto. Os modelos de aprendizagem profunda, como as Redes Neuronais Convolucionais (CNN), detectam e fazem corresponder as imagens. Ao mesmo tempo, deteção de vivacidade utiliza a visão computacional para garantir que as imagens são de uma pessoa real e não uma falsificação não viva, como um deepfake, uma máscara ou outros meios sintéticos.
A verificação biométrica do rosto continua a ser um dos métodos mais fiáveis e convenientes para verificar a identidade à distância e defender-se contra ataques gerados por IA. No entanto, nem todas as tecnologias de biometria facial são criadas da mesma forma. Os fornecedores devem implementar mecanismos robustos de desafio-resposta passiva para garantir que um indivíduo remoto é uma pessoa real e que está a verificar em tempo real. Para tal, é necessária uma tecnologia de base científica que tire partido da inteligência artificial para detetar com confiança que um indivíduo é uma pessoa "viva" (e não uma falsificação gerada por IA) e que está genuinamente presente e a verificar em tempo real.
O mecanismo passivo de resposta a desafios do iProov é Flashmark - a natureza aleatória da tecnologia torna-a imprevisível, impermeável a ataques de repetição (quando os agentes da ameaça injectam tentativas de autenticação anteriores para contornar o sistema) e improvável de fazer engenharia reversa. É a única forma de mitigar a IA generativa e os ataques de injeção digital detectando eficazmente a presença genuína com elevada garantia.
Leia mais:
- Compreender os diferentes tipos de ataques Deepfake de IA generativa
- Acompanhar os autores de fraudes: Como combater a IA generativa e os ataques biométricos baseados em documentos
- IA generativa no sector público - e o papel da biometria facial
- IA generativa e risco de identidade - Proteger o seu ecossistema digital com o iProov e o Ping
- Relatório de Threat Intelligence do iProov 2024