22 de setembro de 2023
Em todo o mundo, governos, decisores políticos e reguladores estão a voltar a sua atenção para o tema da inteligência artificial (IA) generativa. Esta tecnologia reduz significativamente a barreira tecnológica à criação de imagens, vídeos e áudio falsos altamente realistas.
À medida que a IA generativa se desenvolve, torna-se cada vez mais difícil distinguir entre conteúdos reais e manipulados, o que conduz à desinformação, à propaganda e ao engano em grande escala. Esta situação ameaça corroer a confiança e esbater as linhas entre a realidade e a ficção, pondo em causa a função de uma sociedade civil eficaz.
Neste artigo, abordamos o tema da IA generativa, juntamente com as ferramentas, métodos e tecnologias disponíveis para combater a ameaça crescente.
Porque é que a IA generativa representa uma ameaça crescente?
A IA não é intrinsecamente prejudicial - existem muitas aplicações benéficas e positivas. No entanto, há uma série de factores que estão a levar a uma maior preocupação com as suas vastas capacidades para fins nefastos:
- O volume de ataques de cibersegurança impulsionados pela tecnologia de IA está a aumentar a um ritmo alarmante: Por exemplo, a iProov revelou que os ataques de troca de rosto estão a aumentar em frequência: o nosso relatório Biometric Threat Intelligence Report destaca que as trocas de rosto aumentaram 295% de H1 para H2 em 2022.
- A cibercriminalidade baseada em IA tornou-se muito mais acessível e escalável: Os criminosos pouco qualificados estão a ter acesso aos recursos necessários para lançar ataques sofisticados a baixo custo, ou mesmo gratuitamente, em linha. Isto torna mais fácil para os malfeitores ganharem terreno nos sistemas de informação e cibersegurança das organizações. Do mesmo modo, a acessibilidade desta tecnologia pode facilitar aos autores de fraudes convencerem as pessoas de que estão a interagir com uma pessoa autêntica, facilitando ainda mais a cibercriminalidade e a fraude.
- A sofisticação da IA generativa está a desenvolver-se rapidamente e as pessoas já não conseguem detetar falsificações profundas: Os meios de comunicação sintéticos atingiram uma fase em que éimpossível distinguir entre o que é falso e o que é real a olho nu, pelo que a inspeção manual não é uma solução viável. Do mesmo modo, as abordagens que colocam o ónus da responsabilidade nas pessoas para detetar os meios sintéticos terão apenas um impacto limitado.
- Crescimento do crime como serviço: A IA generativa está a capacitar os maus actores e a disponibilidade de ferramentas online está a acelerar a evolução do cenário de ameaças. Isto está a permitir que os criminosos lancem ataques avançados mais rapidamente e em maior escala. Se os ataques forem bem sucedidos, aumentam rapidamente em volume e frequência à medida que são partilhados entre redes de crime como serviço estabelecidas ou na darkweb, aumentando o risco de danos graves.
- Perceção pública e desinformação: A IA generativa não ameaça apenas organizações individuais ou governos, mas também o ecossistema de informação e a própria economia. Isto já está a ter efeitos no mundo real: por exemplo, recentemente, uma imagem gerada por IA de uma explosão no Pentágono causou uma breve queda no mercado de acções.
Os impactos da IA generativa na sociedade são infinitos: fraude de benefícios do sector público, fraude de novas contas, identidade sintética, fraude, fraude eleitoral, desinformação, bots enganadores de redes sociais, chamadas telefónicas automáticas e muito mais.
Os perigos da combinação de diferentes tipos de IA - como imagens, voz e texto - representam uma ameaça sinérgica de tecnologias em rápida evolução que podem ser utilizadas em conjunto para um impacto maciço. Pode saber mais sobre os riscos críticos e urgentes das falsificações de voz em particular aqui.
A preocupante tendência da IA generativa chamou a atenção de governos e decisores políticos em todo o mundo
Vejamos alguns exemplos:
- A declaração de maio de 2023 do Conselho Conjunto de Comércio e Tecnologia EUA-UE centrou-se fortemente no impacto da IA, citando o "ritmo acelerado dos desenvolvimentos tecnológicos" e um compromisso partilhado de aprofundar a cooperação em questões de inteligência artificial, prometendo limitar os "desafios que colocam aos direitos humanos universais e aos valores democráticos partilhados".
- O regulamento AI Act da UE, baseado no risco, classifica os sistemas de IA com base nos seus níveis de risco, acabando por proibir os sistemas de alto risco, impõe regulamentos aos outros e exige transparência para os sistemas de baixo risco.
- Grupo de trabalho PCAST sobre a IA generativa: O Conselho de Conselheiros do Presidente dos EUA para a Ciência e a Tecnologia (PCAST) criou um grupo de trabalho, cujo objetivo é assegurar que as tecnologias de IA sejam desenvolvidas e utilizadas de forma a beneficiar a sociedade no seu conjunto.
- O Governo australiano iniciou o debate com um documento de reflexão que apoia uma IA responsável.
- Os países da APAC estão a fazer pressão para regulamentar as utilizações controversas da IA.
- O Reino Unido publicou o Livro Branco sobre uma abordagem pró-inovação da regulamentação da IA.
- O Brasil publicou um projeto de lei sobre a IA e o Peru publicou uma lei sobre a IA.
Em última análise, existe atualmente uma corrida às armas entre as utilizações destrutivas da IA generativa e as ferramentas de que dispomos para nos defendermos delas. O resultado potencial é uma crise de identidade na era digital, em que o público não pode confiar nos media ou nos funcionários públicos.
Resposta do iProov à proteção contra ameaças de IA generativa
Será cada vez mais difícil para os governos, as empresas, os jornalistas e o público em geral combater ou detetar a fraude, a desinformação e a cibercriminalidade. Isto é particularmente pertinente à medida que nos aproximamos de muitas eleições políticas importantes em todo o mundo.
Então, o que é que os governos e os decisores políticos podem efetivamente fazer? Que regulamentos e tecnologias estão disponíveis? Em resumo:
- A verificação da identidade biométrica facial, com monitorização da vivacidade e da ameaça ativa, é fundamental: Numa época em que as tecnologias tradicionais e o olho humano já não podem verificar a genuinidade de uma pessoa remotamente, a verificação da identidade biométrica é necessária para garantir que uma pessoa é o verdadeiro proprietário da sua identidade, conteúdo e posição. As soluções mais eficazes incorporam tecnologia de vida útil de missão crítica com uma biometria única e gestão ativa de ameaças, que pode determinar se a imagem apresentada é de uma pessoa real e se a pessoa está realmente presente no momento em que a informação está a ser captada.
- A integração e a autenticação à distância devem ser mais seguras: A verificação biométrica facial surgiu como a forma mais segura e conveniente de verificar a identidade em linha, uma vez que os métodos tradicionais, como as palavras-passe e os códigos de utilização única, falharam. No entanto, ao confrontar a IA generativa, é fundamental que as capacidades de vivacidade sejam cuidadosamente avaliadas. Bom não é suficiente; a segurança deve ser fundamental para as organizações.
- A regulamentação tem de estabelecer limites para a maioria moral: É fundamental estabelecer enquadramentos legais para abordar as implicações éticas e sociais da IA generativa e dos media sintéticos. Isto permite que a aplicação da lei vise os maus da fita com directivas claras, ao mesmo tempo que fornece condutores comerciais para abordar os incentivos das plataformas. O iProov tem apresentado a sua resposta PCAST sobre este tópico a vários governos e decisores políticos em todo o mundo.
Abordagem governamental e dos decisores políticos à IA: um resumo
Em última análise, a IA generativa representa um risco significativo para a sociedade. São urgentemente necessárias políticas e regulamentos claros para definir as balizas, alinhar a maioria moral e orientar a resposta das organizações.
A tecnologia biométrica e de verificação de identidade oferece uma linha de vida essencial para os governos e outras organizações que precisam de garantir que as pessoas são quem dizem ser na era das imagens e informações sintéticas e falsificadas.
Mas não é qualquer tecnologia de verificação que serve. À medida que a IA generativa avança, as defesas terão de acompanhar o ritmo: as soluções de missão crítica que evoluem continuamente são essenciais.
O iProov publicou o seu relatório "Crise de identidade na era digital: utilização da biometria de base científica para combater a IA generativa". Neste relatório, examinamos o lado criminoso da IA generativa, discutimos o "défice de confiança" que ameaça minar as capacidades das nações para atingir os objectivos de desenvolvimento sustentável e aconselhamos sobre a tecnologia e os processos necessários para combater esta ameaça.
Em alternativa, marque hoje uma demonstração da solução iProov aqui.