Em todo o mundo, governos, formuladores de políticas e reguladores estão voltando sua atenção para o tema da inteligência artificial (IA) generativa. Essa tecnologia reduz bastante a barreira tecnológica para a criação de imagens, vídeos e áudio falsos altamente realistas.

À medida que a IA generativa se desenvolver, será cada vez mais difícil distinguir entre conteúdo real e manipulado, o que levará à desinformação, à propaganda e ao engano em grande escala. Isso ameaça corroer a confiança e confundir as linhas entre realidade e ficção, desafiando, em última análise, a função de uma sociedade civil eficaz.

Neste artigo, discutimos o tópico da IA generativa, juntamente com as ferramentas, os métodos e as tecnologias disponíveis para combater essa ameaça crescente.

Por que a IA generativa representa uma ameaça crescente?

A IA não é intrinsecamente prejudicial - há muitas aplicações benéficas e positivas. No entanto, vários fatores estão levando a uma maior preocupação com seus vastos recursos para fins nefastos:

  • O volume de ataques à segurança cibernética impulsionados pela tecnologia de IA está aumentando em um ritmo alarmante: Por exemplo, a iProov revelou que os ataques de troca de rosto estão aumentando em frequência: nosso relatório Biometric Threat Intelligence Report destaca que as trocas de rosto aumentaram 295% de H1 a H2 em 2022.
  • O crime cibernético orientado por IA tornou-se muito mais acessível e dimensionável: Criminosos pouco qualificados estão obtendo acesso aos recursos necessários para lançar ataques sofisticados a um baixo custo, ou até mesmo de graça, on-line. Isso torna mais fácil para os agentes mal-intencionados se estabelecerem nos sistemas de informações e de segurança cibernética das organizações. Da mesma forma, a acessibilidade dessa tecnologia pode tornar mais fácil para os fraudadores convencerem os indivíduos de que estão interagindo com uma pessoa autêntica, possibilitando ainda mais o crime cibernético e a fraude.
  • A sofisticação da IA generativa está se desenvolvendo rapidamente, e as pessoas não conseguem mais identificar deepfakes: A mídia sintética atingiu o estágio em que éimpossível distinguir entre o que é falso e o que é real com o olho humano - portanto, a inspeção manual não é uma solução viável. Da mesma forma, as abordagens que colocam o ônus da responsabilidade sobre as pessoas para identificar a mídia sintética terão apenas um impacto limitado.
  • Crescimento do crime como serviço: A IA generativa está capacitando os malfeitores, e a disponibilidade de ferramentas on-line está acelerando a evolução do cenário de ameaças. Isso está permitindo que os criminosos lancem ataques avançados com mais rapidez e em maior escala. Se os ataques forem bem-sucedidos, eles aumentam rapidamente em volume e frequência à medida que são compartilhados entre redes estabelecidas de crime como serviço ou na darkweb, ampliando o risco de danos graves.
  • Percepção pública e desinformação: A IA generativa não ameaça apenas organizações ou governos individuais, mas também o ecossistema de informações e a própria economia. Isso já está tendo efeitos no mundo real: por exemplo, recentemente, uma imagem gerada por IA de uma explosão no Pentágono causou uma breve queda no mercado de ações.

Os impactos da IA generativa na sociedade são infinitos: fraude de benefícios do setor público, fraude de novas contas, identidade sintética, fraude, fraude de votação, desinformação, bots de mídia social enganosos, ligações automáticas e muito mais.

Os perigos da combinação de diferentes tipos de IA, como imagens, voz e texto, representam uma ameaça sinérgica de tecnologias em rápida evolução que podem ser usadas em conjunto para causar um grande impacto. Você pode saber mais sobre os riscos críticos e urgentes das falsificações de voz em particular aqui.

A tendência preocupante da IA generativa chamou a atenção de governos e legisladores em todo o mundo

Vamos considerar alguns exemplos:

Em última análise, existe agora uma corrida armamentista entre os usos destrutivos da IA generativa e as ferramentas que temos para nos defender contra eles. O possível resultado é uma crise de identidade na era digital, em que o público não pode confiar na mídia ou nas autoridades públicas.

Resposta do iProov à proteção contra ameaças de IA generativa

Será cada vez mais difícil para governos, empresas, jornalistas e o público em geral combater ou detectar fraudes, desinformação e crimes cibernéticos. Isso é particularmente pertinente à medida que nos aproximamos de muitas eleições políticas importantes em todo o mundo.

Então, o que os governos e os formuladores de políticas podem realmente fazer? Quais regulamentações e tecnologias estão disponíveis? Em resumo:

  • A verificação da identidade biométrica facial, com vivacidade e monitoramento ativo de ameaças, é fundamental: em uma época em que as tecnologias tradicionais e o olho humano não podem mais verificar a autenticidade de uma pessoa remotamente, a verificação da identidade biométrica é necessária para garantir que uma pessoa seja a verdadeira proprietária de sua identidade, conteúdo e posição. As soluções mais eficazes incorporam a tecnologia de vivacidade de missão crítica com uma biometria única e gerenciamento ativo de ameaças, que pode determinar se a imagem apresentada é de uma pessoa real e se a pessoa está realmente presente no momento em que as informações estão sendo capturadas.
  • A integração e a autenticação remotas devem ser mais seguras: A verificação biométrica facial surgiu como a maneira mais segura e conveniente de verificar a identidade on-line, já que os métodos tradicionais, como senhas e códigos de uso único, falharam. No entanto, ao confrontar a IA generativa, é fundamental que os recursos de vivacidade sejam avaliados minuciosamente. Bom não é o suficiente; a segurança deve ser fundamental para as organizações.
  • A regulamentação precisa estabelecer barreiras de proteção para a maioria moral: É fundamental estabelecer estruturas legais para abordar as implicações éticas e sociais da IA generativa e da mídia sintética. Isso permite que a aplicação da lei atinja os malfeitores com diretrizes claras e, ao mesmo tempo, forneça motivações comerciais para lidar com os incentivos da plataforma. O iProov tem enviado sua resposta do PCAST sobre esse tópico a vários governos e formuladores de políticas em todo o mundo.

Abordagem governamental e de formuladores de políticas para IA: um resumo

Em última análise, a IA generativa representa um risco significativo para a sociedade. São necessárias políticas e regulamentações claras com urgência para definir os limites, alinhar a maioria moral e orientar a resposta das organizações.

A tecnologia de verificação biométrica e de identidade oferece uma linha de vida essencial para governos e outras organizações que precisam garantir às pessoas quem elas dizem ser na era das imagens e informações sintéticas e falsificadas.

Mas não é qualquer tecnologia de verificação que serve. Com o avanço da IA generativa, as defesas precisarão acompanhar o ritmo: soluções de missão crítica que evoluem continuamente são essenciais.

O iProov lançou seu relatório "Crise de identidade na era digital: usando biometria com base científica para combater a IA generativa". Nele, examinamos o lado criminoso da IA generativa, discutimos o "déficit de confiança" que ameaça minar a capacidade das nações de atingir as metas de desenvolvimento sustentável e aconselhamos sobre a tecnologia e os processos necessários para combater essa ameaça.

Como alternativa, agende uma demonstração da solução do iProov aqui hoje.

IA generativa no setor público - e o papel da biometria facial