Enciclopedia biometrica

IA generativa

L'IA generativa si riferisce a sistemi di intelligenza artificiale in grado di generare nuovi dati, come immagini, audio, testi e media sintetici, piuttosto che analizzare semplicemente i dati esistenti. Utilizza modelli di apprendimento automatico come le reti avversarie generative (GAN) e i modelli di diffusione addestrati su grandi insiemi di dati per produrre nuovi risultati che imitano i modelli dei dati di addestramento.

Le comuni applicazioni di IA generativa includono la creazione di deepfakes (ad es, scambi di volti o clonazione della voce), immagini fotorealistiche, generazione di musica e arte e generazione di testi simili a quelli umani. Se da un lato consente nuove possibilità creative, dall'altro la capacità dell'IA generativa di produrre media sintetici altamente realistici introduce rischi legati alla disinformazione, all'impersonificazione e alla frode d'identità da cui deve difendersi un robusto rilevamento della vivacità.

L'intelligenza artificiale generativa ha rivoluzionato il campo dei media sintetici, consentendo la creazione di scambi di volti altamente realistici e altri contenuti simili.

Qual è la differenza tra Deepfakes e IA generativa?

Il termine deepfake è stato storicamente utilizzato per indicare immagini sintetiche create utilizzando reti neurali profonde. In pratica, l'IA generativa e i deepfake sono spesso usati in modo intercambiabile, in quanto vi è un'ampia sovrapposizione. in modo intercambiabile, poiché vi è un'ampia sovrapposizione, ma è più probabile che un deepfake si riferisca a un video, un'immagine o un brano audio utilizzato per scopi malevoli. audio utilizzati per scopi malevoli.

Al contrario, l'IA generativa comprende output su qualsiasi supporto (compreso il testo, come i modelli linguistici [LLM] come ChatGPT) per qualsiasi scopo. In breve, i deepfake sono un sottoinsieme dell'IA generativa.

Cosa possiamo fare per combattere gli attacchi dell'intelligenza artificiale generativa?

Per individuare i media sintetici creati con l'IA generativa, sono essenziali tecnologie di verifica che utilizzino l'IA contro l'IA.

Se utilizzata con la verifica biometrica del volto, l'intelligenza artificiale migliora l'accuratezza, la sicurezza e la velocità del processo di verifica dell'identità. Gli utenti possono verificare a distanza la propria identità scansionando il documento di fiducia di una persona e il suo volto. I modelli di apprendimento profondo, come le reti neurali convoluzionali (CNN), rilevano e confrontano le immagini. Allo stesso tempo, rilevamento della vivacità utilizza la computer vision per garantire che le immagini siano di una persona reale e non di un falso non vivente, come un deepfake, una maschera o altri supporti sintetici.

La verifica biometrica del volto rimane uno dei metodi più affidabili e convenienti per verificare l'identità a distanza e difendersi dagli attacchi generati dall'intelligenza artificiale. Tuttavia, non tutte le tecnologie biometriche facciali sono uguali. I fornitori devono implementare solidi meccanismi passivi di sfida-risposta per garantire che un individuo remoto sia una persona reale e che stia verificando in tempo reale. A tal fine, è necessaria una tecnologia scientifica che sfrutti l'intelligenza artificiale per rilevare con sicurezza che un individuo è una persona "in carne e ossa" (e non una parodia generativa dell'IA) e che è realmente presente e sta verificando in tempo reale.

Il meccanismo passivo di sfida-risposta di iProov è Flashmark - la natura casuale della tecnologia la rende imprevedibile, impermeabile agli attacchi replay (quando gli attori delle minacce iniettano precedenti tentativi di autenticazione per aggirare il sistema) e improbabile da decodificare. È l'unico modo per mitigare l'IA generativa e gli attacchi di attacchi di iniezione digitale efficacemente, rilevando la presenza autentica con un'elevata sicurezza.

Per saperne di più: