Enciclopédia biométrica

IA generativa

A IA generativa refere-se a sistemas de inteligência artificial que podem gerar novos dados, como imagens, áudio, texto e mídia sintética, em vez de simplesmente analisar os dados existentes. Ela usa modelos de aprendizado de máquina, como GANs (Generative Adversarial Networks) e modelos de difusão treinados em grandes conjuntos de dados para produzir novos resultados que imitam os padrões nos dados de treinamento.

Os aplicativos comuns de IA generativa incluem a criação de deepfakes (por exemplo trocas de rosto ou clonagem de voz), imagens fotorrealistas, geração de música/arte e geração de texto semelhante ao humano. Embora permita novas possibilidades criativas, a capacidade da IA generativa de produzir mídia sintética altamente realista também apresenta riscos relacionados à desinformação, falsificação de identidade e fraude de identidade, contra os quais a detecção robusta de vivacidade deve se defender.

A IA generativa revolucionou o campo da mídia sintetizada, permitindo a criação de trocas de rosto altamente realistas e outros conteúdos semelhantes.

Qual é a diferença entre Deepfakes e IA geradora?

O termo deepfake tem sido historicamente usado para se referir a imagens sintéticas criadas usando redes neurais profundas. Na prática, a IA generativa e as deepfakes agora são frequentemente usadas são frequentemente usados de forma intercambiável, pois há uma grande sobreposição, mas um deepfake provavelmente se refere a um vídeo, imagem ou ou áudio utilizado para fins maliciosos.

Em contrapartida, a IA generativa abrange a saída em qualquer mídia (incluindo texto, como modelos de linguagem [LLMs], como o ChatGPT) para qualquer finalidade. Em resumo, os deepfakes são um subconjunto da IA generativa.

O que podemos fazer para combater os ataques de IA generativa?

Para detectar mídia sintética criada usando IA generativa, as tecnologias de verificação que utilizam IA contra IA são essenciais.

Quando usada com a verificação biométrica facial, a IA aumenta a precisão, a segurança e a velocidade do processo de verificação de identidade. Os usuários podem verificar remotamente sua identidade digitalizando o documento confiável de um indivíduo e seu rosto. Modelos de aprendizagem profunda, como as redes neurais convolucionais (CNNs), detectam e combinam as imagens. Ao mesmo tempo, detecção de vivacidade usa a visão computacional para garantir que a imagem seja de uma pessoa real e não uma falsificação não viva, como um deepfake, uma máscara ou outra mídia sintética.

A verificação biométrica facial continua sendo um dos métodos mais confiáveis e convenientes para verificar a identidade remotamente e se defender contra ataques gerados por IA. No entanto, nem todas as tecnologias de biometria facial são criadas da mesma forma. Os fornecedores devem implementar mecanismos robustos de desafio-resposta passiva para garantir que um indivíduo remoto seja uma pessoa real e que esteja fazendo a verificação em tempo real. Para isso, é necessária uma tecnologia de base científica que aproveite a inteligência artificial para detectar com confiança que um indivíduo é uma pessoa "viva" (não uma falsificação gerada por IA) e que está genuinamente presente e verificando em tempo real.

O mecanismo passivo de resposta a desafios do iProov é Flashmark - A natureza aleatória da tecnologia a torna imprevisível, imune a ataques de repetição (quando os agentes de ameaças injetam tentativas de autenticação anteriores para contornar o sistema) e improvável para engenharia reversa. Essa é a única maneira de mitigar a IA generativa e os ataques de injeção digital detectando a presença genuína com alta segurança.

Leia mais: