14 agosto 2024
- Il 70% delle organizzazioni ritiene che gli attacchi deepfake avranno un impatto elevato
- Il 73% delle organizzazioni intervistate sta implementando soluzioni di cybersecurity per affrontare la minaccia dei deepfakes
- Il 75% delle soluzioni implementate per affrontare il problema dei deepfake sono soluzioni biometriche.
- Il 62% teme che la propria organizzazione non prenda sufficientemente sul serio la minaccia dei deepfake
Il rischio di deepfake è in aumento: quasi la metà delle organizzazioni (47%) si è imbattuta in un deepfake e tre quarti di esse (70%) ritiene che gli attacchi deepfake, creati con strumenti di IA generativa, avranno un impatto elevato sulle loro organizzazioni. Tuttavia, la percezione dell'IA è fiduciosa: due terzi delle organizzazioni (68%) ritengono che, se da un lato ha un impatto sulla creazione di minacce alla sicurezza informatica, dall'altro (84%) ritiene che sia strumentale alla protezione contro di esse. È quanto emerge da un nuovo sondaggio globale condotto da iProov tra i responsabili delle decisioni in materia di tecnologia. iProov, fornitore leader di soluzioni di identità biometrica basate sulla scienza, che ha anche rilevato che tre quarti (75%) delle soluzioni implementate per affrontare la minaccia del deepfake sono soluzioni biometriche.
Il buono, il brutto e il cattivoè un sondaggio globale commissionato da iProov che ha raccolto le opinioni di 500 decisori tecnologici di Regno Unito, Stati Uniti, Brasile, Australia, Nuova Zelanda e Singapore sulla minaccia dell'IA generativa e dei deepfake.
Se da un lato le organizzazioni riconoscono le maggiori efficienze che l'IA può apportare, dall'altro questi vantaggi sono sfruttati anche dagli sviluppatori di tecnologie per le minacce e dai malintenzionati. Quasi tre quarti (73%) delle organizzazioni stanno implementando soluzioni per affrontare la minaccia dei deepfake, ma la fiducia è bassa e lo studio individua la preoccupazione prevalente che le organizzazioni non facciano abbastanza per combatterli. Più di due terzi (62%) teme che la propria organizzazione non prenda abbastanza sul serio la minaccia dei deepfake.
L'indagine dimostra che le organizzazioni riconoscono che la minaccia dei deepfakes è reale e presente. Possono essere utilizzati contro le persone in numerosi modi dannosi, tra cui la diffamazione e i danni alla reputazione, ma forse il rischio più quantificabile è quello delle frodi finanziarie. In questo caso possono essere utilizzati per commettere frodi d'identità su larga scala, impersonando individui per ottenere accesso non autorizzato a sistemi o dati, avviare transazioni finanziarie o ingannare altri nell'invio di denaro, come nel caso della recente truffa di Hong Kong. recente truffa deepfake di Hong Kong. La cruda realtà è che i deepfake rappresentano una minaccia per qualsiasi situazione in cui un individuo debba verificare la propria identità a distanza, ma gli intervistati temono che le organizzazioni non stiano prendendo abbastanza sul serio la minaccia.
"Osserviamo i deepfakes da anni, ma ciò che è cambiato negli ultimi sei-dodici mesi è la qualità e la facilità con cui possono essere creati e causare distruzioni su larga scala a organizzazioni e individui", ha dichiarato Andrew Bud, fondatore e CEO di iProov. "Forse l'uso più trascurato dei deepfake è la creazione di identità sintetiche che, non essendo reali e non avendo un proprietario che ne denunci il furto, passano in gran parte inosservate, creando scompiglio e frodando organizzazioni e governi di milioni di dollari".
"E nonostante ciò che alcuni potrebbero credere, è ormai impossibile individuare a occhio nudo i deepfake di qualità. Anche se la nostra ricerca riporta che la metà delle organizzazioni intervistate si è imbattuta in un deepfake, è probabile che la cifra sia molto più alta perché la maggior parte delle organizzazioni non è adeguatamente attrezzata per identificare i deepfake. Con la rapidità con cui il panorama delle minacce si sta innovando, le organizzazioni non possono permettersi di ignorare le metodologie di attacco che ne derivano e come la biometria facciale si sia distinta come la soluzione più resistente per la verifica dell'identità a distanza", aggiunge Andrew Bud.
Sfumature regionali
Lo studio rivela anche alcune percezioni piuttosto sfumate dei deepfake a livello globale. Le organizzazioni APAC (51%), europee (53%) e LATAM (53%) hanno una probabilità significativamente maggiore rispetto alle organizzazioni nordamericane (34%) di affermare di essersi imbattute in un deepfake. Le organizzazioni APAC (81%), europee (72%) e nordamericane (71%) hanno una probabilità significativamente maggiore rispetto alle organizzazioni LATAM (54%) di credere che gli attacchi deepfake avranno un impatto sulla loro organizzazione.
In un panorama di minacce in continua evoluzione, le tattiche impiegate per violare le organizzazioni spesso rispecchiano quelle utilizzate nelle frodi di identità. Non sorprende che i deepfakes siano ora al terzo posto tra le preoccupazioni più diffuse tra gli intervistati, nell'ordine: violazione delle password (64%), ransomware (63%), attacchi di phishing/social engineering (61%) e deepfakes (61%).
L'intelligenza artificiale non è poi così male
Esistono diversi tipi di deepfake, ma tutti hanno un denominatore comune: vengono creati utilizzando strumenti di IA generativa. Le organizzazioni riconoscono che l'IA generativa è innovativa, sicura, affidabile e aiuta a risolvere i problemi. La considerano più etica che non etica e credono che avrà un impatto positivo sul futuro. E stanno agendo: solo il 17% non ha aumentato il proprio budget per programmi che comprendano il rischio dell'IA. Inoltre, la maggior parte ha introdotto politiche sull'uso di nuovi strumenti di IA.
La biometria guida la carica contro i deepfake
La biometria è emersa come la soluzione preferita dalle organizzazioni per affrontare la minaccia dei deepfake. Le organizzazioni hanno dichiarato di utilizzare soprattutto la biometria facciale e delle impronte digitali, ma il tipo di biometria può variare in base alle attività. Ad esempio, lo studio ha rilevato che le organizzazioni ritengono che il volto sia la modalità di autenticazione aggiuntiva più appropriata per proteggersi dai deepfake per l'accesso/il login al conto, le modifiche al conto dei dati personali e le transazioni tipiche.
Il software non basta
Dallo studio emerge chiaramente che le organizzazioni considerano la biometria come un'area di competenza specialistica e quasi tutti (94%) concordano sul fatto che un partner per la sicurezza biometrica debba essere qualcosa di più di un semplice prodotto software. Le organizzazioni intervistate hanno dichiarato di essere alla ricerca di un fornitore di soluzioni che si evolva e stia al passo con il panorama delle minacce: il monitoraggio continuo (80%), la biometria multimodale (79%) e il rilevamento della vivacità (77%) sono tutti elementi che figurano tra i loro requisiti per proteggere adeguatamente le soluzioni biometriche dai deepfake.
Metodologia di indagine
Il buono, il cattivo e il brutto Sondaggio è stato sviluppato in collaborazione con Hanover Research. Sono stati reclutati 500 intervistati a livello globale in settori quali banche, e-commerce, finanza e contabilità, sanità/medicina, ospitalità, assicurazioni, commercio al dettaglio, telecomunicazioni e viaggi. Il sondaggio è stato somministrato online nella primavera del 2024. Gli intervistati erano professionisti dei settori IT, Operations, Network Security, Cybersecurity, Digital Experience, Risk Management o Product Management con responsabilità decisionale primaria nella selezione e nell'acquisto di soluzioni di cybersecurity per la propria organizzazione.