22 de setembro de 2023
Em todo o mundo, governos, formuladores de políticas e reguladores estão voltando sua atenção para o tema da inteligência artificial (IA) generativa. Essa tecnologia reduz bastante a barreira tecnológica para a criação de imagens, vídeos e áudio falsos altamente realistas.
À medida que a IA generativa se desenvolver, será cada vez mais difícil distinguir entre conteúdo real e manipulado, o que levará à desinformação, à propaganda e ao engano em grande escala. Isso ameaça corroer a confiança e confundir as linhas entre realidade e ficção, desafiando, em última análise, a função de uma sociedade civil eficaz.
Neste artigo, discutimos o tópico da IA generativa, juntamente com as ferramentas, os métodos e as tecnologias disponíveis para combater essa ameaça crescente.
Por que a IA generativa representa uma ameaça crescente?
A IA não é intrinsecamente prejudicial - há muitas aplicações benéficas e positivas. No entanto, vários fatores estão levando a uma maior preocupação com seus vastos recursos para fins nefastos:
- O volume de ataques à segurança cibernética impulsionados pela tecnologia de IA está aumentando em um ritmo alarmante: Por exemplo, a iProov revelou que os ataques de troca de rosto estão aumentando em frequência: nosso relatório Biometric Threat Intelligence Report destaca que as trocas de rosto aumentaram 295% de H1 a H2 em 2022.
- O crime cibernético orientado por IA tornou-se muito mais acessível e dimensionável: Criminosos pouco qualificados estão obtendo acesso aos recursos necessários para lançar ataques sofisticados a um baixo custo, ou até mesmo de graça, on-line. Isso torna mais fácil para os agentes mal-intencionados se estabelecerem nos sistemas de informações e de segurança cibernética das organizações. Da mesma forma, a acessibilidade dessa tecnologia pode tornar mais fácil para os fraudadores convencerem os indivíduos de que estão interagindo com uma pessoa autêntica, possibilitando ainda mais o crime cibernético e a fraude.
- A sofisticação da IA generativa está se desenvolvendo rapidamente, e as pessoas não conseguem mais identificar deepfakes: A mídia sintética atingiu o estágio em que éimpossível distinguir entre o que é falso e o que é real com o olho humano - portanto, a inspeção manual não é uma solução viável. Da mesma forma, as abordagens que colocam o ônus da responsabilidade sobre as pessoas para identificar a mídia sintética terão apenas um impacto limitado.
- Crescimento do crime como serviço: A IA generativa está capacitando os malfeitores, e a disponibilidade de ferramentas on-line está acelerando a evolução do cenário de ameaças. Isso está permitindo que os criminosos lancem ataques avançados com mais rapidez e em maior escala. Se os ataques forem bem-sucedidos, eles aumentam rapidamente em volume e frequência à medida que são compartilhados entre redes estabelecidas de crime como serviço ou na darkweb, ampliando o risco de danos graves.
- Percepção pública e desinformação: A IA generativa não ameaça apenas organizações ou governos individuais, mas também o ecossistema de informações e a própria economia. Isso já está tendo efeitos no mundo real: por exemplo, recentemente, uma imagem gerada por IA de uma explosão no Pentágono causou uma breve queda no mercado de ações.
Os impactos da IA generativa na sociedade são infinitos: fraude de benefícios do setor público, fraude de novas contas, identidade sintética, fraude, fraude de votação, desinformação, bots de mídia social enganosos, ligações automáticas e muito mais.
Os perigos da combinação de diferentes tipos de IA, como imagens, voz e texto, representam uma ameaça sinérgica de tecnologias em rápida evolução que podem ser usadas em conjunto para causar um grande impacto. Você pode saber mais sobre os riscos críticos e urgentes das falsificações de voz em particular aqui.
A tendência preocupante da IA generativa chamou a atenção de governos e legisladores em todo o mundo
Vamos considerar alguns exemplos:
- A declaração de maio de 2023 do Conselho Conjunto de Comércio e Tecnologia EUA-UE concentrou-se fortemente no impacto da IA, citando o "ritmo acelerado dos desenvolvimentos tecnológicos" e um compromisso compartilhado de aprofundar a cooperação em questões de inteligência artificial, prometendo limitar os "desafios que eles representam para os direitos humanos universais e valores democráticos compartilhados".
- A regulamentação da Lei de IA baseada em risco da UE classifica os sistemas de IA com base em seus níveis de risco, proibindo os sistemas de alto risco, impondo regulamentações a outros e exigindo transparência para sistemas de baixo risco.
- Grupo de trabalho PCAST sobre IA generativa: O Conselho de Consultores de Ciência e Tecnologia do Presidente dos EUA (PCAST) criou um grupo de trabalho com o objetivo de garantir que as tecnologias de IA sejam desenvolvidas e usadas de forma a beneficiar a sociedade como um todo.
- O governo australiano iniciou o debate com um documento de discussão que apóia a IA responsável.
- As nações da APAC estão se esforçando para regulamentar os usos controversos da IA.
- O Reino Unido lançou o Livro Branco de IA do Reino Unido sobre uma abordagem pró-inovação para a regulamentação da IA.
- O Brasil publicou um projeto de lei sobre IA e o Peru publicou uma lei sobre IA.
Em última análise, existe agora uma corrida armamentista entre os usos destrutivos da IA generativa e as ferramentas que temos para nos defender contra eles. O possível resultado é uma crise de identidade na era digital, em que o público não pode confiar na mídia ou nas autoridades públicas.
Resposta do iProov à proteção contra ameaças de IA generativa
Será cada vez mais difícil para governos, empresas, jornalistas e o público em geral combater ou detectar fraudes, desinformação e crimes cibernéticos. Isso é particularmente pertinente à medida que nos aproximamos de muitas eleições políticas importantes em todo o mundo.
Então, o que os governos e os formuladores de políticas podem realmente fazer? Quais regulamentações e tecnologias estão disponíveis? Em resumo:
- A verificação da identidade biométrica facial, com vivacidade e monitoramento ativo de ameaças, é fundamental: em uma época em que as tecnologias tradicionais e o olho humano não podem mais verificar a autenticidade de uma pessoa remotamente, a verificação da identidade biométrica é necessária para garantir que uma pessoa seja a verdadeira proprietária de sua identidade, conteúdo e posição. As soluções mais eficazes incorporam a tecnologia de vivacidade de missão crítica com uma biometria única e gerenciamento ativo de ameaças, que pode determinar se a imagem apresentada é de uma pessoa real e se a pessoa está realmente presente no momento em que as informações estão sendo capturadas.
- A integração e a autenticação remotas devem ser mais seguras: A verificação biométrica facial surgiu como a maneira mais segura e conveniente de verificar a identidade on-line, já que os métodos tradicionais, como senhas e códigos de uso único, falharam. No entanto, ao confrontar a IA generativa, é fundamental que os recursos de vivacidade sejam avaliados minuciosamente. Bom não é o suficiente; a segurança deve ser fundamental para as organizações.
- A regulamentação precisa estabelecer barreiras de proteção para a maioria moral: É fundamental estabelecer estruturas legais para abordar as implicações éticas e sociais da IA generativa e da mídia sintética. Isso permite que a aplicação da lei atinja os malfeitores com diretrizes claras e, ao mesmo tempo, forneça motivações comerciais para lidar com os incentivos da plataforma. O iProov tem enviado sua resposta do PCAST sobre esse tópico a vários governos e formuladores de políticas em todo o mundo.
Abordagem governamental e de formuladores de políticas para IA: um resumo
Em última análise, a IA generativa representa um risco significativo para a sociedade. São necessárias políticas e regulamentações claras com urgência para definir os limites, alinhar a maioria moral e orientar a resposta das organizações.
A tecnologia de verificação biométrica e de identidade oferece uma linha de vida essencial para governos e outras organizações que precisam garantir às pessoas quem elas dizem ser na era das imagens e informações sintéticas e falsificadas.
Mas não é qualquer tecnologia de verificação que serve. Com o avanço da IA generativa, as defesas precisarão acompanhar o ritmo: soluções de missão crítica que evoluem continuamente são essenciais.
O iProov lançou seu relatório "Crise de identidade na era digital: usando biometria com base científica para combater a IA generativa". Nele, examinamos o lado criminoso da IA generativa, discutimos o "déficit de confiança" que ameaça minar a capacidade das nações de atingir as metas de desenvolvimento sustentável e aconselhamos sobre a tecnologia e os processos necessários para combater essa ameaça.
Como alternativa, agende uma demonstração da solução do iProov aqui hoje.