12 febbraio 2025
La maggior parte dei consumatori non è in grado di identificare i falsi generati dall'IA;
Fai il test per il rilevamento dei falsi
Una nuova ricerca di iProov, il principale fornitore al mondo di soluzioni scientifiche per la verifica dell'identità biometricarivela che la maggior parte delle persone non è in grado di identificare i deepfake, ovvero quei video e quelle immagini incredibilmente realistici generati dall'intelligenza artificiale e spesso progettati per impersonare le persone. Lo studio ha messo alla prova 2.000 consumatori britannici e statunitensi, esponendoli a una serie di contenuti reali e deepfake. I risultati sono allarmanti: solo lo 0,1% dei partecipanti è riuscito a distinguere con precisione i contenuti reali da quelli falsi in tutti gli stimoli che includevano immagini e video.
Risultati principali:
- Il rilevamento dei deepfake fallisce: Solo lo 0,1% degli intervistati ha identificato correttamente tutti gli stimoli deepfake e reali (ad esempio, immagini e video) in uno studio in cui i partecipanti sono stati sollecitati a cercare i deepfake. Negli scenari del mondo reale, dove le persone sono meno consapevoli, la vulnerabilità ai deepfake è probabilmente ancora più alta.
- Le generazioni più anziane sono più vulnerabili ai deepfakes: Lo studio ha rilevato che il 30% delle persone di età compresa tra i 55 e i 64 anni e il 39% di quelle di età superiore ai 65 anni non avevano mai sentito parlare di deepfakes, evidenziando un significativo divario di conoscenze e una maggiore suscettibilità a questa minaccia emergente da parte di questa fascia di età.
- Sfida video: I video deepfake si sono rivelati più difficili da identificare rispetto alle immagini deepfake, con il 36% in meno di probabilità di identificare correttamente un video sintetico rispetto a un'immagine sintetica. Questa vulnerabilità solleva serie preoccupazioni sul potenziale di frode basato sui video, come l'impersonificazione nelle videochiamate o in scenari in cui la verifica video viene utilizzata per la verifica dell'identità.
- I deepfakes sono ovunque, ma incompresi: Sebbene la preoccupazione per i deepfakes sia in aumento, molti non conoscono questa tecnologia. Un consumatore su cinque (22%) non aveva mai sentito parlare di deepfakes prima dello studio.
- L'eccesso di fiducia è dilagante: Nonostante le scarse prestazioni, le persone sono rimaste eccessivamente fiduciose nelle loro capacità di rilevamento dei deepfake per oltre il 60%, indipendentemente dalla correttezza delle loro risposte. Ciò è avvenuto soprattutto nei giovani adulti (18-34). Questo falso senso di sicurezza è una preoccupazione significativa.
- La fiducia subisce un colpo: Le piattaforme dei social media sono considerate terreno fertile per i deepfakes, con Meta (49%) e TikTok (47%) considerati i luoghi più diffusi per i deepfakes online. Questo, a sua volta, ha portato a una riduzione della fiducia nelle informazioni e nei media online: il 49% si fida meno dei social media dopo essere venuto a conoscenza dei deepfakes. Solo uno su cinque segnalerebbe un sospetto deepfake alle piattaforme di social media.
- I deepfakes stanno alimentando una diffusa preoccupazione e sfiducia, soprattutto tra gli adulti più anziani: Tre persone su quattro (74%) si preoccupano dell'impatto sociale dei deepfakes, con le "fake news" e la disinformazione al primo posto (68%). Questa paura è particolarmente pronunciata tra le generazioni più anziane, con l'82% di coloro che hanno più di 55 anni che esprimono preoccupazione per la diffusione di informazioni false.
- Sono necessari meccanismi di sensibilizzazione e segnalazione migliori: Meno di un terzo delle persone (29%) non prende provvedimenti quando si imbatte in un sospetto deepfake, il che è probabilmente dovuto al fatto che il 48% dichiara di non sapere come segnalare i deepfake, mentre un quarto non si preoccupa di vedere un sospetto deepfake.
- La maggior parte dei consumatori non verifica attivamente l'autenticità delle informazioni online, aumentando la propria vulnerabilità ai deepfake: Nonostante la crescente minaccia della disinformazione, solo uno su quattro cerca fonti di informazione alternative se sospetta un deepfake. Solo l'11% delle persone analizza criticamente la fonte e il contesto delle informazioni per determinare se si tratta di un deepfake, il che significa che la stragrande maggioranza è altamente suscettibile all'inganno e alla diffusione di false narrazioni.
Il professor Edgar Whitley, esperto di identità digitale presso la London School of Economics and Political Science, aggiunge: "Da tempo gli esperti di sicurezza segnalano le minacce poste dai deepfakes sia per gli individui che per le organizzazioni. Questo studio dimostra che le organizzazioni non possono più affidarsi al giudizio umano per individuare i deepfake e devono cercare mezzi alternativi per autenticare gli utenti dei loro sistemi e servizi".
"Solo lo 0,1% delle persone è riuscito a identificare con precisione i deepfake, sottolineando quanto siano vulnerabili sia le organizzazioni che i consumatori alla minaccia di frode d'identità nell'era dei deepfake", afferma Andrew Bud, fondatore e CEO di iProov. "E anche quando le persone sospettano un deepfake, la nostra ricerca ci dice che la stragrande maggioranza delle persone non intraprende alcuna azione. I criminali sfruttano l'incapacità dei consumatori di distinguere le immagini reali da quelle false, mettendo a rischio i nostri dati personali e la nostra sicurezza finanziaria. È compito delle aziende tecnologiche proteggere i propri clienti implementando solide misure di sicurezza. L'utilizzo della biometria facciale con liveness fornisce un fattore di autenticazione affidabile e dà priorità sia alla sicurezza che al controllo individuale, assicurando che le organizzazioni e gli utenti possano tenere il passo e rimanere protetti da queste minacce in continua evoluzione".
La crescente minaccia dei deepfakes
I deepfake rappresentano una minaccia schiacciante nel panorama digitale odierno e si sono evoluti a un ritmo allarmante negli ultimi 12 mesi. Il Threat Intelligence Report 2024 di iProov ha evidenziato un aumento del 704% dei soli face swap (un tipo di deepfake). La loro capacità di impersonare in modo convincente gli individui li rende uno strumento potente per i criminali informatici per ottenere l'accesso non autorizzato ad account e dati sensibili. I deepfake possono anche essere utilizzati per creare identità sintetiche per scopi fraudolenti, come l'apertura di conti falsi o la richiesta di prestiti. Ciò rappresenta una sfida significativa alla capacità degli esseri umani di discernere la verità dalla falsità e ha implicazioni di ampia portata per la sicurezza, la fiducia e la diffusione della disinformazione.
Cosa si può fare?
Con i deepfake sempre più sofisticati, l'uomo da solo non è più in grado di distinguere in modo affidabile il vero dal falso e deve affidarsi alla tecnologia per individuarli. Per combattere la crescente minaccia dei deepfake, le organizzazioni dovrebbero adottare soluzioni che utilizzano una tecnologia biometrica avanzata con rilevamento della presenza, che verifica che un individuo è la persona giusta, una persona reale, e si sta autenticando in questo momento. Queste soluzioni dovrebbero includere il rilevamento continuo delle minacce e il miglioramento continuo delle misure di sicurezza per rimanere al passo con l'evoluzione delle tecniche di deepfake. È inoltre necessaria una maggiore collaborazione tra fornitori di tecnologia, piattaforme e responsabili politici per sviluppare soluzioni che attenuino i rischi posti dai deepfake.
Fate il test di rilevamento Deepfake
Pensate di essere immuni all'inganno del deepfake? iProov ha creato un quiz online che vi sfida a distinguere il vero dal falso. Fate il quiz e scoprite il vostro punteggio.