14 de agosto de 2024
- 70% das organizações acreditam que os ataques de deepfake terão um alto impacto
- 73% das organizações pesquisadas estão implementando soluções de segurança cibernética para lidar com a ameaça de deepfakes
- 75% das soluções que estão sendo implementadas para lidar com deepfakes são soluções biométricas
- 62% temem que sua organização não esteja levando a ameaça de deepfakes suficientemente a sério
O risco de deepfakes está aumentando, com quase metade das organizações (47%) tendo encontrado um deepfake e três quartos delas (70%) acreditando que os ataques de deepfake, que são criados usando ferramentas de IA generativas, terão um alto impacto em suas organizações. No entanto, as percepções da IA são esperançosas, pois dois terços das organizações (68%) acreditam que, embora ela seja impactante na criação de ameaças à segurança cibernética, mais (84%) acham que ela é fundamental na proteção contra elas. Isso está de acordo com uma nova pesquisa global de tomadores de decisão de tecnologia da iProovlíder no fornecimento de soluções de identidade biométrica com base científica, que também descobriu que três quartos (75%) das soluções que estão sendo implementadas para lidar com a ameaça do deepfake são soluções biométricas.
O bom, o ruim e o feioé uma pesquisa global encomendada pela iProov que reuniu as opiniões de 500 tomadores de decisões tecnológicas do Reino Unido, EUA, Brasil, Austrália, Nova Zelândia e Cingapura sobre a ameaça da IA generativa e das deepfakes.
Embora as organizações reconheçam o aumento da eficiência que a IA pode trazer, esses benefícios também são aproveitados pelos desenvolvedores de tecnologia de ameaças e pelos malfeitores. Quase três quartos (73%) das organizações estão implementando soluções para lidar com a ameaça de deepfake, mas a confiança é baixa, com o estudo identificando uma preocupação predominante de que as organizações não estão fazendo o suficiente para combatê-las. Mais de dois terços (62%) temem que suas organizações não estejam levando a ameaça das deepfakes suficientemente a sério.
A pesquisa mostra o reconhecimento das organizações de que a ameaça das deepfakes é uma ameaça real e presente. Elas podem ser usadas contra as pessoas de várias maneiras prejudiciais, incluindo difamação e danos à reputação, mas talvez o risco mais quantificável seja a fraude financeira. Nesse caso, elas podem ser usadas para cometer fraudes de identidade em larga escala, fazendo-se passar por indivíduos para obter acesso não autorizado a sistemas ou dados, iniciar transações financeiras ou enganar outras pessoas para que enviem dinheiro na escala do recente fraude deepfake de Hong Kong. A realidade é que os deepfakes representam uma ameaça para qualquer situação em que um indivíduo precise verificar sua identidade remotamente, mas os entrevistados temem que as organizações não estejam levando a ameaça suficientemente a sério.
"Estamos observando deepfakes há anos, mas o que mudou nos últimos seis a doze meses foi a qualidade e a facilidade com que podem ser criados e causar destruição em larga escala para organizações e indivíduos", disse Andrew Bud, fundador e CEO da iProov. "Talvez o uso mais negligenciado de deepfakes seja a criação de identidades sintéticas que, por não serem reais e não terem um proprietário para denunciar seu roubo, passam despercebidas, causando estragos e fraudando organizações e governos em milhões de dólares."
"E, apesar do que alguns possam acreditar, agora é impossível detectar deepfakes de qualidade a olho nu. Embora nossa pesquisa informe que metade das organizações pesquisadas tenha encontrado um deepfake, a probabilidade é que esse número seja muito maior porque a maioria das organizações não está devidamente equipada para identificar deepfakes. Com o ritmo acelerado em que o cenário de ameaças está inovando, as organizações não podem se dar ao luxo de ignorar as metodologias de ataque resultantes e como a biometria facial se destacou como a solução mais resiliente para a verificação remota de identidade", acrescenta Andrew Bud.
Nuances regionais
O estudo também revela algumas percepções bastante diferenciadas de deepfakes no cenário global. As organizações da APAC (51%), Europa (53%) e LATAM (53%) têm uma probabilidade significativamente maior do que as organizações da América do Norte (34%) de dizer que encontraram uma deepfake. As organizações da APAC (81%), Europa (72%) e América do Norte (71%) têm uma probabilidade significativamente maior do que as organizações da LATAM (54%) de acreditar que os ataques de deepfake terão um impacto em sua organização.
Em meio ao terreno em constante mudança do cenário de ameaças, as táticas empregadas para violar as organizações geralmente refletem aquelas usadas na fraude de identidade. Como era de se esperar, os deepfakes agora estão empatados em terceiro lugar entre as preocupações mais predominantes dos entrevistados da pesquisa, na seguinte ordem: violações de senhas (64%), ransomware (63%), ataques de phishing/engenharia social (61%) e deepfakes (61%).
A IA não é de todo ruim
Existem muitos tipos diferentes de deepfakes, mas todos eles têm um denominador comum: são criados usando ferramentas de IA generativa. As organizações reconhecem que a IA generativa é inovadora, segura, confiável e as ajuda a resolver problemas. Elas a veem como mais ética do que antiética e acreditam que ela terá um impacto positivo no futuro. E estão agindo: apenas 17% não aumentaram seu orçamento em programas que englobam o risco da IA. Além disso, a maioria introduziu políticas sobre o uso de novas ferramentas de IA.
A biometria lidera o ataque contra deepfakes
A biometria surgiu como a solução escolhida pelas organizações para enfrentar a ameaça das falsificações profundas. As organizações afirmaram que é mais provável que usem biometria facial e de impressão digital; no entanto, o tipo de biometria pode variar de acordo com as tarefas. Por exemplo, o estudo constatou que as organizações consideram a biometria facial o modo de autenticação adicional mais adequado para proteção contra deepfakes para acesso/log-in de contas, alterações de conta de detalhes pessoais e transações típicas.
O software não é suficiente
O estudo deixa claro que as organizações veem a biometria como uma área de especialização e quase todas (94%) concordam que um parceiro de segurança biométrica deve ser mais do que apenas um produto de software. As organizações pesquisadas afirmaram que estão procurando um provedor de soluções que evolua e acompanhe o cenário de ameaças, com monitoramento contínuo (80%), biometria multimodal (79%) e detecção de vivacidade (77%), todos com grande destaque em seus requisitos para proteger adequadamente as soluções biométricas contra deepfakes.
Metodologia da pesquisa
O bom, o ruim e o feio Pesquisa foi desenvolvida em colaboração com a Hanover Research. Foram recrutados 500 entrevistados globais em setores como bancos, comércio eletrônico, finanças e contabilidade, saúde/médico, hotelaria, seguros, varejo, telecomunicações e viagens. Isso foi feito por meio de um provedor de painel terceirizado e a pesquisa foi administrada on-line na primavera de 2024. Os entrevistados eram profissionais dos departamentos de TI, Operações, Segurança de Rede, Segurança Cibernética, Experiência Digital, Gerenciamento de Riscos ou Gerenciamento de Produtos com a principal responsabilidade pela tomada de decisões na seleção e compra de soluções de segurança cibernética para sua organização.