Este ano, o volume de ataques de identidade gerados por IA aumentou a tal ponto que se tornou um tópico de consideração para consumidores, organizações e até mesmo líderes mundiais. A biometria é uma força transformadora que remodela a forma como os indivíduos interagem com os sistemas digitais e como as organizações protegem as informações confidenciais. À medida que 2024 se aproxima, o cenário da identidade digital está pronto para avanços significativos, com inovações definidas para redefinir a verificação, elevar os padrões de segurança e aprimorar as experiências do usuário.

Junte-se a nós e mergulhe no futuro iminente da biometria, em que a fusão da ciência e da segurança promete uma mudança de paradigma na forma como autenticamos, identificamos e protegemos no âmbito digital.

1. A biometria se tornará a pedra angular da infraestrutura de segurança do mercado de serviços financeiros dos EUA

No último ano, muitas organizações de serviços financeiros expandiram o acesso digital remoto para atender à demanda dos usuários. No entanto, isso ampliou a superfície de ataque digital e criou oportunidades para fraudadores. O setor de serviços financeiros dos EUA tem sido mais lento na adoção de tecnologias de identidade digital do que algumas outras regiões, o que pode ser atribuído aos desafios que enfrenta em relação à regulamentação da interoperabilidade e do intercâmbio de dados. No entanto, com a fraude de identidade sintética deverá gerar pelo menos US$ 23 bilhões em perdas até 2030a pressão está aumentando de todos os ângulos. Os consumidores esperam abrir contas e acessar serviços remotamente com rapidez e facilidade, enquanto os fraudadores minam a segurança por meio de canais on-line e desviam dinheiro. Ao mesmo tempo, existe a séria ameaça de não conformidade com o Know Your Customer (KYC) e com o Anti Money Laundering (AML). As penalidades para isso incluem multas enormes e, possivelmente, até mesmo processos criminais. Além disso, há um risco maior de contornar sanções e financiar adversários estatais. Em resposta, muitas instituições financeiras estão sendo solicitadas a tomar medidas. Isso envolveu a substituição de processos de integração complicados e a substituição de métodos de autenticação desatualizados, como senhas e códigos de acesso, por tecnologias avançadas para integrar e autenticar remotamente os clientes de serviços bancários on-line existentes.

Um dos pioneiros é a tecnologia de verificação biométrica facial, que oferece conveniência e acessibilidade inigualáveis para os clientes e, ao mesmo tempo, desafios de segurança inigualáveis para os adversários. Mais instituições financeiras reconhecerão como a verificação biométrica reformulará e redefinirá o impacto positivo que a tecnologia pode ter no equilíbrio entre segurança e experiência do cliente e farão a mudança.

2. Haverá um rápido aumento no número de países em desenvolvimento que estão criando programas de identidade digital baseados em identidade descentralizada

Estima-se que 850 milhões de pessoas em todo o mundo não possuem uma forma legal de identificaçãoe, sem identidade, as pessoas têm dificuldades para abrir uma conta bancária, conseguir emprego e acessar o sistema de saúde, o que as deixa financeiramente excluídas. Os programas de identidade digital melhoram o acesso a serviços e oportunidades digitais. Eles permitem que as pessoas afirmem sua identidade, acessem plataformas on-line e participem de iniciativas governamentais digitais. Com o apoio do investimento de fundos do Banco Mundial, os programas de identidade digital podem ajudar as economias menos avançadas a evitar o roubo e a fraude de identidade, além de oferecer uma maneira alternativa de comprovar suas identidades e acessar serviços essenciais, como benefícios, assistência médica e educação. Com base em uma identidade descentralizada, esses programas permitirão que os usuários armazenem e troquem digitalmente documentos de identidade, como uma carteira de motorista, e credenciais, como diplomas, e se autentiquem sem uma autoridade central. Uma identidade descentralizada coloca o usuário no controle, permitindo que ele gerencie sua identidade em uma abordagem distribuída. Elas oferecerão a conveniência que os usuários finais exigem atualmente e abrirão caminhos essenciais para que indivíduos anteriormente desfavorecidos ou marginalizados tenham acesso a serviços financeiros e de bem-estar.

3. As chamadas de vídeo remotas para verificar a identidade serão proibidas

A verificação por chamada de vídeo envolve uma chamada de vídeo individual entre o usuário e um operador treinado. O usuário é solicitado a mostrar um documento de identidade, e o operador o compara com seu rosto. No entanto, está comprovado que a verificação de videochamada oferece pouca garantia de que o usuário final é uma pessoa "viva" e não uma imagem artificial produzida por IA, convincentemente sobreposta ao rosto do agente da ameaça.

Por exemplo, iem 2022, pesquisadores do Chaos Computer Club conseguiram contornar a tecnologia de verificação de chamadas de vídeo usando IA generativa e uma identidade falsa. O caso mostrou como essa tecnologia e os operadores humanos dos quais ela depende são altamente suscetíveis a ataques de imagens sintéticas. Desde então, o Escritório Federal Alemão de Segurança da Informação advertiu contra a verificação de chamadas de vídeo por sua vulnerabilidade a esses ataques.

Se os programas de identidade digital não puderem se defender contra a ameaça de falsificações profundas na integração e autenticação, eles serão explorados para fins criminosos, como fraude de pagamento, lavagem de dinheiro e financiamento de terrorismo. Dessa forma, veremos movimentos de reguladores de serviços financeiros para banir métodos de verificação de chamadas de vídeo com uma diretriz para escolher métodos mais confiáveis baseados em híbridos que combinam correspondência automatizada de IA e detecção de vivacidade com supervisão humana do processo de aprendizado de máquina.

4. As organizações introduzirão a autenticação mútua entre os funcionários para comunicação de alto risco e integração remota de novos funcionários 

Como as organizações dependem cada vez mais de meios digitais para comunicação confidencial, a necessidade de medidas robustas de segurança cibernética é fundamental para reduzir os riscos. A introdução da autenticação mútua para comunicações e transações de alto risco é uma medida de segurança crucial que acrescenta uma camada extra de proteção contra acesso não autorizado e possíveis ameaças. Além disso, em determinados setores, a conformidade regulamentar exige a implementação de medidas de segurança robustas. A autenticação mútua ajuda as organizações a atender a esses requisitos de conformidade, demonstrando o compromisso de garantir canais de comunicação seguros e proteger informações confidenciais.

5. As violações de dados corporativos triplicarão devido a ataques bem-sucedidos gerados por IA

Há alguns anos, organizações e indivíduos têm confiado na detecção de e-mails de phishing por meio de erros de ortografia e gramaticais. Esse tempo passou. A qualidade do Chat GPT é tão grande que os agentes de ameaças agora podem usá-lo para gerar ataques de phishing de alta qualidade em comunicações muito convincentes e sem pistas suspeitas. Consequentemente, 2024 testemunhará um grande aumento na qualidade e no volume dos ataques de phishing gerados por IA. O treinamento de conscientização de segurança se tornará uma ferramenta redundante e as organizações serão forçadas a buscar métodos alternativos e mais confiáveis para autenticar de forma confiável os usuários internos e externos de suas plataformas.

6. Os kits de sínteses de fala e vídeo do Crime como serviço romperão a barreira dos US$ 100 

O crime como serviço e a disponibilidade de ferramentas on-line aceleram a evolução do cenário de ameaças, permitindo que os criminosos lancem ataques avançados com mais rapidez e em maior escala. Se os ataques forem bem-sucedidos, eles aumentam rapidamente em volume e frequência, ampliando o risco de danos graves.

Os malfeitores estão usando uma sofisticada tecnologia de IA generativa para criar e lançar ataques para explorar os sistemas de segurança das organizações e fraudar indivíduos. A iProov testemunhou indícios semelhantes de criminosos pouco qualificados ganhando a capacidade de criar e lançar ataques avançados de imagens sintéticas. Em nosso mais recente relatório de inteligência sobre ameaças biométricasvimos o surgimento e o rápido crescimento de novas trocas de faces por vídeo. As trocas de rosto são uma forma de imagem sintética em que o agente da ameaça transforma mais de um rosto para criar uma nova saída de vídeo 3D falsa.

O custo dos recursos necessários para lançar ataques está diminuindo e esperamos que os kits de crime como serviço caiam para menos de US$ 100.

7. O potencial da IA para disseminar a desinformação política fará com que a autoria autenticada de imagens e conteúdo escrito seja uma ferramenta legalmente exigida 

Haverá uma infinidade de vídeos deepfake gerados por IA sendo usados para persuadir os eleitores à medida que nos aproximamos das eleições. Para combater isso, as empresas de tecnologia farão grandes movimentos para fornecer maneiras de as pessoas verificarem a autenticidade das imagens que carregam. Por exemplo, soluções que permitam que as pessoas coloquem marcas d'água nas imagens e as assinem quando forem criadas ou modificadas.

É provável que em 2024 haja muitas tentativas nessa área porque o uso de deepfakes é muito difundido. Será um pré-requisito que qualquer conteúdo que utilize imagens ofereça alguma forma de garantir sua autenticidade e, se isso não for feito, essas imagens serão desvalorizadas.

8. Uma Zoom Call gerada por IA levará à primeira fraude de um CEO de um bilhão de dólares 

A fraude de CEOs está atingindo pelo menos 400 empresas por dia e representa uma ameaça significativa para as organizações em todo o mundo. Nesse tipo de crime, os invasores se fazem passar por executivos seniores da empresa e tentam enganar os funcionários para que transfiram fundos, divulguem informações confidenciais ou iniciem outras atividades fraudulentas. Eles geralmente envolvem ataques sofisticados de engenharia social, o que dificulta sua detecção. As ferramentas de IA geradora agora estão sendo amplamente usadas por fraudadores para criar deepfakes para imitar uma pessoa. Os malfeitores agora podem criar áudio e imagens convincentes gerados por IA e implantá-los em plataformas como Zoom, Microsoft Teams e Slack. Sem ferramentas sofisticadas de monitoramento e detecção, é quase impossível detectar esse tipo de imagem sintética. Dessa forma, esperamos ver uma chamada do Zoom gerada por IA levar à primeira fraude bilionária de CEO em 2024.

Prancheta 150