22 settembre 2023
In tutto il mondo, i governi, i responsabili politici e le autorità di regolamentazione stanno rivolgendo la loro attenzione al tema dell'intelligenza artificiale generativa (AI). Questa tecnologia riduce notevolmente l'ostacolo tecnologico alla creazione di immagini, video e audio falsi altamente realistici.
Lo sviluppo dell'intelligenza artificiale generativa renderà sempre più difficile distinguere tra contenuti reali e manipolati, portando a disinformazione, propaganda e inganno su vasta scala. Tutto ciò rischia di erodere la fiducia e di confondere i confini tra realtà e finzione, mettendo in discussione la funzione di una società civile efficace.
In questo articolo affrontiamo il tema dell'IA generativa, insieme agli strumenti, ai metodi e alle tecnologie disponibili per combattere la crescente minaccia.
Perché l'IA generativa rappresenta una minaccia crescente?
L'intelligenza artificiale non è intrinsecamente dannosa: esistono molte applicazioni positive e benefiche. Tuttavia, una serie di fattori sta portando a una maggiore preoccupazione per le sue vaste capacità a fini nefasti:
- Il volume degli attacchi di cybersicurezza basati sulla tecnologia AI sta aumentando a un ritmo allarmante: Ad esempio, iProov ha rivelato che gli attacchi di face swap sono sempre più frequenti: il nostro rapporto Biometric Threat Intelligence Report evidenzia che i face swap sono aumentati del 295% dal primo all'ultimo trimestre del 2022.
- La criminalità informatica guidata dall'intelligenza artificiale è diventata molto più accessibile e scalabile: I criminali poco qualificati stanno ottenendo l'accesso alle risorse necessarie per lanciare attacchi sofisticati a basso costo, o addirittura gratuitamente, online. In questo modo è più facile per i malintenzionati prendere piede nei sistemi informativi e di cybersecurity delle organizzazioni. Allo stesso modo, l'accessibilità di questa tecnologia può rendere più facile per i truffatori convincere gli individui che stanno interagendo con una persona autentica, favorendo ulteriormente il crimine informatico e le frodi.
- La sofisticazione dell'intelligenza artificiale generativa si sta sviluppando rapidamente e le persone non sono più in grado di riconoscere i deepfakes: I media sintetici hanno raggiunto uno stadio in cui èimpossibile distinguere ciò che è falso da ciò che è reale con l'occhio umano, quindi l'ispezione manuale non è una soluzione praticabile. Allo stesso modo, gli approcci che attribuiscono alle persone la responsabilità di individuare i media sintetici avranno un impatto limitato.
- Crescita del Crime-as-a-Service: L'intelligenza artificiale generativa sta potenziando i malintenzionati e la disponibilità di strumenti online sta accelerando l'evoluzione del panorama delle minacce. Ciò consente ai criminali di lanciare attacchi avanzati in modo più rapido e su larga scala. Se gli attacchi hanno successo, si intensificano rapidamente in volume e frequenza, poiché vengono condivisi tra le reti crime-as-a-service consolidate o sul darkweb, amplificando il rischio di gravi danni.
- Percezione pubblica e disinformazione: L'IA generativa non minaccia solo singole organizzazioni o governi, ma anche l'ecosistema informativo e l'economia stessa. Questo sta già avendo effetti nel mondo reale: ad esempio, recentemente un'immagine generata dall'IA di un'esplosione al Pentagono ha causato un breve calo del mercato azionario.
Gli impatti dell'IA generativa sulla società sono infiniti: frodi nel settore pubblico, frodi sui nuovi conti, identità sintetiche, frodi, frodi elettorali, disinformazione, bot ingannevoli sui social media, robocall e altro ancora.
I pericoli derivanti dalla combinazione di diversi tipi di IA - come immagini, voce e testo - rappresentano una minaccia sinergica di tecnologie in rapida evoluzione che possono essere utilizzate congiuntamente per ottenere un impatto massiccio. Per conoscere i rischi critici e urgenti degli spoofing vocali, in particolare, si veda qui.
La preoccupante tendenza dell'IA generativa ha attirato l'attenzione dei governi e dei politici di tutto il mondo
Consideriamo alcuni esempi:
- La dichiarazione del Consiglio congiunto USA-UE per il commercio e la tecnologia del maggio 2023 si è concentrata molto sull'impatto dell'IA, citando il "rapido ritmo degli sviluppi tecnologici" e l'impegno condiviso ad approfondire la cooperazione sulle questioni relative all'intelligenza artificiale, promettendo di limitare le "sfide che pongono ai diritti umani universali e ai valori democratici condivisi".
- Il regolamento dell'UE sull'IA basato sul rischio classifica i sistemi di IA in base ai loro livelli di rischio, vietando in ultima analisi i sistemi ad alto rischio, imponendo regolamenti agli altri e richiedendo trasparenza per i sistemi a basso rischio.
- Gruppo di lavoro PCAST sull'IA generativa: il Consiglio dei consulenti per la scienza e la tecnologia del Presidente degli Stati Uniti (PCAST) ha istituito un gruppo di lavoro che si occupa di garantire che le tecnologie dell'IA siano sviluppate e utilizzate in modo da apportare benefici alla società nel suo complesso.
- Il governo australiano ha avviato un dibattito con un documento di discussione a sostegno dell'IA responsabile .
- I Paesi dell'APAC stanno spingendo per regolamentare gli usi controversi dell'IA.
- Il Regno Unito ha pubblicato il Libro Bianco sull'IA del Regno Unito su un approccio pro-innovazione alla regolamentazione dell'IA.
- Il Brasile ha pubblicato una bozza di legge sull'IA e il Perù ha pubblicato una legge sull'IA.
In definitiva, è in atto una corsa agli armamenti tra gli usi distruttivi dell'IA generativa e gli strumenti che abbiamo per difenderci da essi. Il risultato potenziale è una crisi di identità nell'era digitale, in cui il pubblico non può fidarsi dei media o dei funzionari pubblici.
La risposta di iProov alla salvaguardia dalle minacce dell'IA generativa
Per i governi, le aziende, i giornalisti e il pubblico in generale sarà sempre più difficile combattere o individuare frodi, disinformazione e crimini informatici. Ciò è particolarmente pertinente in prossimità di molte importanti elezioni politiche in tutto il mondo.
Quindi, cosa possono fare i governi e i politici? Quali sono le normative e le tecnologie disponibili? In sintesi:
- La verifica dell'identità biometrica facciale, con monitoraggio dell'identità e delle minacce attive, è fondamentale: in un'epoca in cui le tecnologie tradizionali e l'occhio umano non sono più in grado di verificare l'autenticità di una persona a distanza, la verifica dell'identità biometrica è necessaria per garantire che una persona sia il vero proprietario della sua identità, dei suoi contenuti e della sua posizione. Le soluzioni più efficaci incorporano la tecnologia mission-critical liveness con una biometria unica e una gestione attiva delle minacce, in grado di determinare se l'immagine presentata è una persona reale e se la persona è effettivamente presente nel momento in cui vengono acquisite le informazioni.
- L'onboarding e l'autenticazione da remoto devono essere ulteriormente protetti: La verifica biometrica del volto è emersa come il modo più sicuro e conveniente per verificare l'identità online, dato che i metodi tradizionali come le password e i codici monouso hanno fallito. Tuttavia, quando ci si confronta con l'IA generativa, è fondamentale valutare a fondo le capacità di liveness. La bontà non è sufficiente: la sicurezza deve essere fondamentale per le organizzazioni.
- La regolamentazione deve stabilire dei paletti per la maggioranza morale: È fondamentale stabilire quadri giuridici per affrontare le implicazioni etiche e sociali dell'IA generativa e dei media sintetici. Ciò consente alle forze dell'ordine di colpire i cattivi con direttive chiare, fornendo allo stesso tempo i driver commerciali per affrontare gli incentivi delle piattaforme. iProov ha presentato la risposta del PCAST su questo argomento a vari governi e responsabili politici in tutto il mondo.
Approccio governativo e politico all'IA: una sintesi
In definitiva, l'IA generativa comporta rischi significativi per la società. È urgente definire una politica e una regolamentazione chiare per fissare i parapetti, allineare la maggioranza morale e guidare la risposta delle organizzazioni.
La tecnologia di verifica biometrica e dell'identità offre un'ancora di salvezza fondamentale per i governi e le altre organizzazioni che hanno bisogno di garantire alle persone chi dicono di essere nell'era delle immagini e delle informazioni sintetiche e falsificate.
Ma non basta una qualsiasi tecnologia di verifica. Con l'avanzare dell'intelligenza artificiale generativa, le difese dovranno tenere il passo: sono essenziali soluzioni mission-critical in continua evoluzione.
iProov ha pubblicato il rapporto "Identity Crisis in the Digital Age: Using Science-Based Biometrics to Combat Generative AI". All'interno, esaminiamo il lato criminale dell'IA generativa, discutiamo del "deficit di fiducia" che minaccia di minare le capacità delle nazioni di raggiungere gli obiettivi di sviluppo sostenibile e forniamo consigli sulla tecnologia e sui processi necessari per combattere questa minaccia.
In alternativa, prenotate oggi stesso una demo della soluzione iProov.