22 de setembro de 2023

Em todo o mundo, governos, decisores políticos e reguladores estão a voltar a sua atenção para o tema da inteligência artificial (IA) generativa. Esta tecnologia reduz significativamente a barreira tecnológica à criação de imagens, vídeos e áudio falsos altamente realistas.

À medida que a IA generativa se desenvolve, torna-se cada vez mais difícil distinguir entre conteúdos reais e manipulados, o que conduz à desinformação, à propaganda e ao engano em grande escala. Esta situação ameaça corroer a confiança e esbater as linhas entre a realidade e a ficção, pondo em causa a função de uma sociedade civil eficaz.

Neste artigo, abordamos o tema da IA generativa, juntamente com as ferramentas, métodos e tecnologias disponíveis para combater a ameaça crescente.

Porque é que a IA generativa representa uma ameaça crescente?

A IA não é intrinsecamente prejudicial - existem muitas aplicações benéficas e positivas. No entanto, há uma série de factores que estão a levar a uma maior preocupação com as suas vastas capacidades para fins nefastos:

  • O volume de ataques de cibersegurança impulsionados pela tecnologia de IA está a aumentar a um ritmo alarmante: Por exemplo, a iProov revelou que os ataques de troca de rosto estão a aumentar em frequência: o nosso relatório Biometric Threat Intelligence Report destaca que as trocas de rosto aumentaram 295% de H1 para H2 em 2022.
  • A cibercriminalidade baseada em IA tornou-se muito mais acessível e escalável: Os criminosos pouco qualificados estão a ter acesso aos recursos necessários para lançar ataques sofisticados a baixo custo, ou mesmo gratuitamente, em linha. Isto torna mais fácil para os malfeitores ganharem terreno nos sistemas de informação e cibersegurança das organizações. Do mesmo modo, a acessibilidade desta tecnologia pode facilitar aos autores de fraudes convencerem as pessoas de que estão a interagir com uma pessoa autêntica, facilitando ainda mais a cibercriminalidade e a fraude.
  • A sofisticação da IA generativa está a desenvolver-se rapidamente e as pessoas já não conseguem detetar falsificações profundas: Os meios de comunicação sintéticos atingiram uma fase em que éimpossível distinguir entre o que é falso e o que é real a olho nu, pelo que a inspeção manual não é uma solução viável. Do mesmo modo, as abordagens que colocam o ónus da responsabilidade nas pessoas para detetar os meios sintéticos terão apenas um impacto limitado.
  • Crescimento do crime como serviço: A IA generativa está a capacitar os maus actores e a disponibilidade de ferramentas online está a acelerar a evolução do cenário de ameaças. Isto está a permitir que os criminosos lancem ataques avançados mais rapidamente e em maior escala. Se os ataques forem bem sucedidos, aumentam rapidamente em volume e frequência à medida que são partilhados entre redes de crime como serviço estabelecidas ou na darkweb, aumentando o risco de danos graves.
  • Perceção pública e desinformação: A IA generativa não ameaça apenas organizações individuais ou governos, mas também o ecossistema de informação e a própria economia. Isto já está a ter efeitos no mundo real: por exemplo, recentemente, uma imagem gerada por IA de uma explosão no Pentágono causou uma breve queda no mercado de acções.

Os impactos da IA generativa na sociedade são infinitos: fraude de benefícios do sector público, fraude de novas contas, identidade sintética, fraude, fraude eleitoral, desinformação, bots enganadores de redes sociais, chamadas telefónicas automáticas e muito mais.

Os perigos da combinação de diferentes tipos de IA - como imagens, voz e texto - representam uma ameaça sinérgica de tecnologias em rápida evolução que podem ser utilizadas em conjunto para um impacto maciço. Pode saber mais sobre os riscos críticos e urgentes das falsificações de voz em particular aqui.

A preocupante tendência da IA generativa chamou a atenção de governos e decisores políticos em todo o mundo

Vejamos alguns exemplos:

Em última análise, existe atualmente uma corrida às armas entre as utilizações destrutivas da IA generativa e as ferramentas de que dispomos para nos defendermos delas. O resultado potencial é uma crise de identidade na era digital, em que o público não pode confiar nos media ou nos funcionários públicos.

Resposta do iProov à proteção contra ameaças de IA generativa

Será cada vez mais difícil para os governos, as empresas, os jornalistas e o público em geral combater ou detetar a fraude, a desinformação e a cibercriminalidade. Isto é particularmente pertinente à medida que nos aproximamos de muitas eleições políticas importantes em todo o mundo.

Então, o que é que os governos e os decisores políticos podem efetivamente fazer? Que regulamentos e tecnologias estão disponíveis? Em resumo:

  • A verificação da identidade biométrica facial, com monitorização da vivacidade e da ameaça ativa, é fundamental: Numa época em que as tecnologias tradicionais e o olho humano já não podem verificar a genuinidade de uma pessoa remotamente, a verificação da identidade biométrica é necessária para garantir que uma pessoa é o verdadeiro proprietário da sua identidade, conteúdo e posição. As soluções mais eficazes incorporam tecnologia de vida útil de missão crítica com uma biometria única e gestão ativa de ameaças, que pode determinar se a imagem apresentada é de uma pessoa real e se a pessoa está realmente presente no momento em que a informação está a ser captada.
  • A integração e a autenticação à distância devem ser mais seguras: A verificação biométrica facial surgiu como a forma mais segura e conveniente de verificar a identidade em linha, uma vez que os métodos tradicionais, como as palavras-passe e os códigos de utilização única, falharam. No entanto, ao confrontar a IA generativa, é fundamental que as capacidades de vivacidade sejam cuidadosamente avaliadas. Bom não é suficiente; a segurança deve ser fundamental para as organizações.
  • A regulamentação tem de estabelecer limites para a maioria moral: É fundamental estabelecer enquadramentos legais para abordar as implicações éticas e sociais da IA generativa e dos media sintéticos. Isto permite que a aplicação da lei vise os maus da fita com directivas claras, ao mesmo tempo que fornece condutores comerciais para abordar os incentivos das plataformas. O iProov tem apresentado a sua resposta PCAST sobre este tópico a vários governos e decisores políticos em todo o mundo.

Abordagem governamental e dos decisores políticos à IA: um resumo

Em última análise, a IA generativa representa um risco significativo para a sociedade. São urgentemente necessárias políticas e regulamentos claros para definir as balizas, alinhar a maioria moral e orientar a resposta das organizações.

A tecnologia biométrica e de verificação de identidade oferece uma linha de vida essencial para os governos e outras organizações que precisam de garantir que as pessoas são quem dizem ser na era das imagens e informações sintéticas e falsificadas.

Mas não é qualquer tecnologia de verificação que serve. À medida que a IA generativa avança, as defesas terão de acompanhar o ritmo: as soluções de missão crítica que evoluem continuamente são essenciais.

O iProov publicou o seu relatório "Crise de identidade na era digital: utilização da biometria de base científica para combater a IA generativa". Neste relatório, examinamos o lado criminoso da IA generativa, discutimos o "défice de confiança" que ameaça minar as capacidades das nações para atingir os objectivos de desenvolvimento sustentável e aconselhamos sobre a tecnologia e os processos necessários para combater esta ameaça.

Em alternativa, marque hoje uma demonstração da solução iProov aqui.