14 de agosto de 2024
- 70% das organizações acreditam que os ataques de deepfake terão um impacto elevado
- 73% das organizações inquiridas estão a implementar soluções de cibersegurança para fazer face à ameaça dos deepfakes
- 75% das soluções que estão a ser implementadas para combater as falsificações profundas são soluções biométricas
- 62% receiam que a sua organização não esteja a levar a ameaça dos deepfakes suficientemente a sério
O risco de deepfakes está a aumentar, com quase metade das organizações (47%) a terem encontrado um deepfake e três quartos delas (70%) a acreditarem que os ataques de deepfake, que são criados utilizando ferramentas de IA generativas, terão um grande impacto nas suas organizações. No entanto, as percepções da IA são esperançosas, uma vez que dois terços das organizações (68%) acreditam que, embora seja impactante na criação de ameaças à cibersegurança, mais (84%) acham que é fundamental na proteção contra elas. Isto de acordo com um novo inquérito global aos decisores tecnológicos da iProovum dos principais fornecedores de soluções de identidade biométrica de base científica, que também concluiu que três quartos (75%) das soluções que estão a ser implementadas para fazer face à ameaça do deepfake são soluções biométricas.
O Bom, o Mau e o Feioé um inquérito global encomendado pela iProov que reuniu as opiniões de 500 decisores tecnológicos do Reino Unido, EUA, Brasil, Austrália, Nova Zelândia e Singapura sobre a ameaça da IA generativa e dos deepfakes.
Embora as organizações reconheçam o aumento da eficiência que a IA pode trazer, estes benefícios também são aproveitados pelos criadores de tecnologia de ameaças e pelos maus actores. Quase três quartos (73%) das organizações estão a implementar soluções para lidar com a ameaça de deepfake, mas a confiança é baixa, com o estudo a identificar uma preocupação predominante de que não está a ser feito o suficiente pelas organizações para as combater. Mais de dois terços (62%) receiam que a sua organização não esteja a levar a ameaça dos deepfakes suficientemente a sério.
O inquérito mostra que as organizações reconhecem que a ameaça dos deepfakes é uma ameaça real e presente. Podem ser utilizadas contra as pessoas de várias formas prejudiciais, incluindo difamação e danos à reputação, mas talvez o risco mais quantificável seja o da fraude financeira. Neste caso, podem ser utilizadas para cometer fraudes de identidade em grande escala, fazendo-se passar por indivíduos para obter acesso não autorizado a sistemas ou dados, iniciar transacções financeiras ou enganar outros para que enviem dinheiro, à escala da recente fraude deepfake de Hong Kong. A realidade é que os deepfakes representam uma ameaça para qualquer situação em que um indivíduo precise de verificar a sua identidade remotamente, mas os inquiridos receiam que as organizações não estejam a levar a ameaça suficientemente a sério.
"Há anos que observamos os deepfakes, mas o que mudou nos últimos seis a doze meses foi a qualidade e a facilidade com que podem ser criados e causar destruição em grande escala a organizações e indivíduos", disse Andrew Bud, fundador e CEO da iProov. "Talvez o uso mais negligenciado de deepfakes seja a criação de identidades sintéticas que, por não serem reais e não terem proprietário para denunciar o seu roubo, passam em grande parte despercebidas enquanto causam estragos e defraudam organizações e governos em milhões de dólares".
"E, apesar do que alguns possam acreditar, agora é impossível para o olho nu detetar deepfakes de qualidade. Embora a nossa investigação indique que metade das organizações inquiridas encontrou um deepfake, a probabilidade é que este número seja muito superior, porque a maioria das organizações não está devidamente equipada para identificar deepfakes. Com o ritmo acelerado a que o cenário de ameaças está a inovar, as organizações não se podem dar ao luxo de ignorar as metodologias de ataque resultantes e a forma como a biometria facial se distinguiu como a solução mais resistente para a verificação remota da identidade", acrescenta Andrew Bud.
Nuances regionais
O estudo também revela algumas percepções bastante diferenciadas de deepfakes no cenário global. As organizações da APAC (51%), Europa (53%) e LATAM (53%) têm uma probabilidade significativamente maior do que as organizações da América do Norte (34%) de dizer que encontraram um deepfake. As organizações da APAC (81%), Europa (72%) e América do Norte (71%) têm uma probabilidade significativamente maior do que as organizações da LATAM (54%) de acreditar que os ataques de deepfake terão um impacto em sua organização.
No meio do terreno em constante mudança do cenário de ameaças, as tácticas utilizadas para violar as organizações reflectem frequentemente as utilizadas na fraude de identidade. Sem surpresa, os deepfakes estão agora empatados em terceiro lugar entre as preocupações mais prevalecentes dos inquiridos, pela seguinte ordem: violações de palavras-passe (64%), ransomware (63%), ataques de phishing/engenharia social (61%) e deepfakes (61%) .
A IA não é má de todo
Existem muitos tipos diferentes de deepfakes, mas todos eles têm um denominador comum: são criados utilizando ferramentas de IA generativa. As organizações reconhecem que a IA generativa é inovadora, segura, fiável e ajuda-as a resolver problemas. Consideram-na mais ética do que antiética e acreditam que terá um impacto positivo no futuro. E estão a tomar medidas: apenas 17% não aumentaram o seu orçamento em programas que englobam o risco da IA. Além disso, a maioria introduziu políticas sobre a utilização de novas ferramentas de IA.
A biometria lidera a luta contra as falsificações profundas
A biometria surgiu como a solução de eleição das organizações para fazer face à ameaça dos deepfakes. As organizações afirmaram que é mais provável que utilizem a biometria facial e de impressões digitais, no entanto, o tipo de biometria pode variar consoante as tarefas. Por exemplo, o estudo concluiu que as organizações consideram que a biometria facial é o modo de autenticação adicional mais adequado para proteger contra as falsificações profundas no acesso/log-in de contas, alterações de contas de dados pessoais e transacções típicas.
O software não é suficiente
O estudo mostra claramente que as organizações encaram a biometria como uma área de especialização, com quase todos (94%) a concordarem que um parceiro de segurança biométrica deve ser mais do que um simples produto de software. As organizações inquiridas afirmaram que procuram um fornecedor de soluções que evolua e acompanhe o ritmo do cenário de ameaças, com monitorização contínua (80%), biometria multimodal (79%) e deteção de vivacidade (77%), todos eles com uma grande importância nos seus requisitos para proteger adequadamente as soluções biométricas contra falsificações profundas.
Metodologia do inquérito
O bom, o mau e o feio Inquérito foi desenvolvido em colaboração com a Hanover Research. Foram recrutados 500 inquiridos globais em sectores como a Banca, o Comércio Eletrónico, as Finanças e Contabilidade, os Cuidados de Saúde/Médicos, a Hotelaria, os Seguros, o Retalho, as Telecomunicações e as Viagens. Isto foi feito através de um fornecedor de painel de terceiros e o inquérito foi administrado online na primavera de 2024. Os inquiridos eram profissionais dos departamentos de TI, Operações, Segurança de Rede, Cibersegurança, Experiência Digital, Gestão de Riscos ou Gestão de Produtos com responsabilidade primária de tomada de decisões na seleção e compra de soluções de cibersegurança para a sua organização.