Il buono, il brutto e il cattivo: uno studio globale sulla minaccia dell'IA e dei deepfakes

In un mondo digitale sempre più interconnesso, la capacità di fidarsi dell'identità degli individui all'interno degli ecosistemi digitali è fondamentale. Che si tratti di dipendenti che accedono a dati aziendali sensibili, di clienti che effettuano transazioni online o di cittadini che interagiscono con i servizi governativi, le conseguenze di una fiducia mal riposta possono essere devastanti.

I deepfake e altri inganni basati sull'intelligenza artificiale hanno amplificato i rischi, rendendo imperativa l'adozione di soluzioni solide di verifica dell'identità da parte di organizzazioni e individui per salvaguardare le loro interazioni digitali e mantenere l'integrità dei loro ecosistemi digitali.

Un recente sondaggio globale condotto tra i responsabili delle decisioni in campo tecnologico di diversi settori industriali rivela una diffusa consapevolezza dei potenziali danni causati dai deepfake.

  • Il 70% ritiene che gli attacchi generati dall'intelligenza artificiale avranno un impatto significativo sulle loro organizzazioni
  • La maggioranza riconosce anche il ruolo cruciale dell'intelligenza artificiale nella difesa da questi attacchi.

Nonostante questa consapevolezza, esiste un divario preoccupante tra il riconoscimento e l'azione. Mentre il 73% delle organizzazioni sta implementando attivamente soluzioni di cybersecurity per affrontare il problema dei deepfakes, più di due terzi (62%) esprime la preoccupazione che le proprie organizzazioni non stiano prendendo abbastanza sul serio la minaccia. Questo divario evidenzia la necessità di misure più proattive e solide per mitigare i rischi posti da questa tecnologia in rapida evoluzione.

Risultati principali:

  • I deepfakes sono ora a pari merito con gli attacchi di phishing/social engineering come terzo problema di sicurezza più diffuso, dopo le violazioni di password e i ransomware.
  • Un clamoroso 75% delle organizzazioni si sta rivolgendo a soluzioni biometriche facciali come difesa primaria contro i deepfake. Ciò riflette il crescente riconoscimento della capacità della biometria facciale di fornire una verifica dell'identità più sicura e affidabile rispetto ai metodi tradizionali come le password o l'autenticazione basata sulla conoscenza.
  • Quasi tutti gli intervistati (94%) ritengono che un partner per la sicurezza biometrica debba offrire più di un semplice software. C'è una chiara richiesta di soluzioni complete che includano il monitoraggio continuo, la biometria multimodale e il rilevamento avanzato della vivacità per garantire l'autenticità della persona da verificare.

Per saperne di più, scaricate il rapporto completo.

Schermata 2024 08 13 alle ore 1.25.48 PM