21 marzo 2026
Gli agenti di IA autonomi determinano la propria linea d'azione prima di attuare i flussi di lavoro, trasformando il modo in cui operano le organizzazioni e sbloccando efficienze e capacità che prima erano impossibili. Tuttavia, la realizzazione di questo potenziale comporta anche il rischio che le azioni autonome possano portare a conseguenze legali, commerciali o etiche senza che alcun essere umano ne sia ritenuto responsabile. Per apprezzare appieno il valore dell'IA agentica, dobbiamo garantire che gli esseri umani verificati che delegano l'autorità agli agenti rimangano significativamente coinvolti nelle azioni intraprese per loro conto.
Ogni organizzazione che oggi impiega l'IA agentica sta creando, consapevolmente o meno, un vuoto di responsabilità: uno spazio in cui vengono prese decisioni, assunti impegni e assunte responsabilità senza alcuna specifica autorizzazione umana. Non si tratta di un rischio ipotetico, bensì di un rischio strutturale, aggravato da credenziali automatizzate e delegate che i sistemi di identificazione non sono mai stati progettati per vagliare, trasformando una questione filosofica – se il fine giustifichi i mezzi – in una realtà operativa.
Gli agenti autonomi basati sull'intelligenza artificiale stanno ora conducendo trattative con i fornitori, approvando fatture, modificando i termini di pagamento e avviando flussi di lavoro nei sistemi aziendali, operando con credenziali valide tramite API legittime e seguendo protocolli concepiti partendo da un presupposto fondamentale: che l'entità dall'altra parte della transazione sia un essere umano.
L'urgenza non riguarda solo il settore privato. La recente Strategia Nazionale Cibernetica degli Stati Uniti si è esplicitamente impegnata ad adottare rapidamente l'IA agentica per potenziare la difesa delle reti e modernizzare i sistemi critici. Quando i governi accelerano l'implementazione dell'IA agentica su scala nazionale, l'infrastruttura di governance necessaria per farlo in sicurezza non può rimanere un aspetto secondario.
La nostra infrastruttura di identità tradizionale parte dal presupposto che l'entità che agisce sia un essere umano. FIDO2, che il settore considera giustamente lo standard di autenticazione più sicuro attualmente disponibile, è stato progettato attorno a un modello in cui è un essere umano ad avviare, approvare e completare la procedura di autenticazione. L'intera catena di fiducia ha inizio e fine con una persona reale. I codici di accesso monouso (OTP) presuppongono che una persona legga l'SMS. Le notifiche push presuppongono che una persona tocchi lo schermo. Questi non sono difetti. Sono caratteristiche create per un mondo in cui le macchine eseguono processi deterministici avviati dagli esseri umani. Verificano l'identità e l'autorizzazione. Ciò che non possono verificare è l'intenzione: se un essere umano con l'autorità di prendere questa specifica decisione abbia effettivamente scelto di prenderla.
Il settore si confronta da anni con le identità non umane. Gli account di servizio e le pipeline automatizzate operano da tempo utilizzando credenziali, senza alcun intervento umano, in tempo reale. Ma gli agenti basati sull'intelligenza artificiale sono qualitativamente diversi.
Un processo automatizzato tradizionale esegue uno script prestabilito. Il suo comportamento è deterministico e circoscritto. Un agente di intelligenza artificiale persegue un obiettivo. Sceglie tra diversi approcci possibili e intraprende azioni che potrebbero non essere mai state esplicitamente previste dagli esseri umani che lo hanno implementato. Questo sposta il rapporto di delega di un intero ordine di grandezza. Non stiamo più delegando compiti alle macchine. Stiamo delegando il giudizio. E delegare il giudizio, senza un meccanismo per verificare che un essere umano con l'autorità appropriata abbia approvato l'esercizio specifico di quel giudizio, non è governance. È un azzardo.
Nelle transazioni tradizionali, se un contratto reca la firma di un amministratore delegato, spetta alla sua organizzazione dimostrare che si tratta di una falsificazione. Le transazioni basate su agenti ribaltano questa situazione. Quando un agente agisce sulla base di credenziali valide ma senza prova di un intento umano, l’organizzazione delegante può plausibilmente sostenere che l’agente abbia adempiuto al proprio incarico. Il delegante deve poter contare sul fatto che il proprio agente non lo esponga a responsabilità, mentre la controparte deve avere la certezza che gli impegni assunti non possano essere negati.
La legge dell'UE sull'IA e la giurisprudenza emergente convergono su un principio comune: il controllo umano sulle azioni dell'IA che comportano conseguenze significative deve essere concreto, non puramente formale. Il documento programmatico del NIST del febbraio 2026 sull'identità degli agenti ha identificato sei aree di interesse: identificazione, autenticazione, delega dell'accesso, autorizzazione, registrazione e coinvolgimento umano (human-in-the-loop). Riteniamo che l'attenzione debba concentrarsi su quest'ultima. Il coinvolgimento umano (human-in-the-loop) significa non solo che un essere umano stabilisce gli obiettivi, ma anche che approva qualsiasi mezzo rischioso o inaspettato per raggiungerli.
Un'efficace autorizzazione umana delle azioni autonome richiede tre elementi che le attuali implementazioni aziendali non forniscono quasi mai contemporaneamente: la persona giusta, il cui ruolo organizzativo la renda l'autorità competente per questo tipo di decisione; informazioni complete, con un contesto sufficiente per prendere una decisione autentica anziché un'approvazione con un solo clic che dà l'illusione di un controllo; e una traccia attribuibile, provvista di data e ora e collegata a un'identità umana verificata. Questi requisiti sono gli elementi fondamentali su cui si sono sempre basate le decisioni importanti nelle organizzazioni ben governate.
Si tratta di un equilibrio tra due sfide contrapposte. Da un lato, dobbiamo colmare il divario tra l'intenzione e le decisioni adottate per realizzarla. Dall'altro, dobbiamo evitare la "stanchezza da approvazione" e creare lo spazio affinché questa sia davvero una decisione frutto di riflessione, attenzione e responsabilità, che solo gli esseri umani possono assumersi.
Le organizzazioni che riusciranno a sfruttare appieno il potenziale dell'IA agentica non saranno quelle dotate degli agenti più capaci, bensì quelle che creeranno l'infrastruttura di governance necessaria per implementare gli agenti su larga scala, sapendo chi ha autorizzato cosa, quando e perché.
L'istinto di molte organizzazioni sarà quello di risolvere la sfida della governance integrando l'etica nel quadro dell'IA agente. Ma l'etica codificata in un modello è una politica. L'etica esercitata da una persona è responsabilità. Il merito umano dovrebbe essere giudicato in base al comportamento effettivo in condizioni reali, non in base alla conformità a un sistema configurato da qualcuno a priori. L'obiettivo della governance non è eliminare il giudizio umano. È garantire che un essere umano ne abbia effettivamente espresso uno, che sappiamo chi lo ha fatto e che possa risponderne.
Alla RSA Conference che si terrà a San Francisco la prossima settimana (martedì 24 marzo 2026), il mio collega di iProov, Johan Sellström, mostrerà come questi obiettivi possano essere raggiunti. Le sue dimostrazioni e la sua presentazione mettono in luce alcuni dei lavori innovativi che il team sta portando avanti per collegare le azioni degli agenti di IA all'autorità umana.
Inoltre, abbiamo recentemente pubblicato un’indagine di mercato intitolata "La grande recessione della fiducia, causata dai deepfake". Se non ci assumiamo questo compito, prevedo che, dal punto di vista aziendale, si verificherà “La grande recessione della fiducia, causata dai nostri stessi agenti di IA”.
Andrew Bud, CBE FREng FIET, è fondatore e amministratore delegato di iProov. Da trent’anni opera nel campo dell’identità, della sicurezza e delle tecnologie emergenti.
