21 mars 2026

Les agents IA autonomes déterminent leur ligne de conduite avant de mettre en œuvre des flux de travail, transformant ainsi le mode de fonctionnement des organisations et libérant des gains d'efficacité et des capacités jusqu'alors impossibles à atteindre. Cependant, la concrétisation de ce potentiel comporte également le risque que ces actions autonomes entraînent des conséquences juridiques, commerciales ou éthiques sans qu'aucun être humain ne puisse en être tenu responsable. Pour tirer pleinement parti de l'IA agentique, nous devons veiller à ce que les personnes identifiées qui délèguent leur autorité à ces agents restent étroitement associées aux actions menées en leur nom.

Toute organisation qui déploie aujourd’hui une IA agentique crée, consciemment ou non, un vide en matière de responsabilité, un espace où des décisions sont prises, des engagements pris et des obligations contractées sans aucune autorisation humaine spécifique. Il ne s’agit pas d’un risque hypothétique, mais d’un risque architectural, renforcé par des identifiants automatisés et délégués que les systèmes d’identité n’ont jamais été conçus pour contrôler, transformant ainsi une question philosophique – celle de savoir si la fin justifie les moyens – en une réalité opérationnelle.

Des agents IA autonomes mènent désormais des négociations avec les fournisseurs, valident des factures, modifient les conditions de paiement et lancent des flux de travail au sein des systèmes d'entreprise, en utilisant des identifiants valides via des API légitimes et en suivant des protocoles conçus sur la base d'une hypothèse fondamentale : celle que l'entité à l'autre bout de la transaction est un être humain. 

L'urgence ne se limite pas au secteur privé. La récente Stratégie nationale américaine en matière de cybersécurité s'est explicitement engagée à adopter rapidement l'IA agentique afin de renforcer la défense des réseaux et de moderniser les systèmes critiques. Alors que les gouvernements accélèrent le déploiement de l'IA agentique à l'échelle nationale, l'infrastructure de gouvernance nécessaire pour le faire en toute sécurité ne peut rester une considération secondaire.

Notre infrastructure d'identité existante part du principe que l'entité agissante est un être humain. La norme FIDO2, que le secteur considère à juste titre comme la norme d'authentification la plus sûre qui soit, a été conçue autour d'un modèle dans lequel c'est un être humain qui lance, approuve et mène à bien le processus d'authentification. La chaîne de confiance tout entière commence et se termine par une personne réelle. Les codes d'accès à usage unique (OTP) partent du principe qu'une personne lit le SMS. Les notifications push partent du principe qu'une personne appuie sur un écran. Ce ne sont pas des failles. Ce sont des fonctionnalités conçues pour un monde dans lequel des machines exécutent des processus déterministes mis en œuvre par des humains. Elles vérifient l'identité et l'autorisation. Ce qu'elles ne peuvent pas vérifier, c'est l'intention : si un humain ayant le pouvoir de prendre cette décision spécifique a effectivement choisi de la prendre.

Le secteur se penche depuis des années sur la question des identités non humaines. Les comptes de service et les pipelines automatisés fonctionnent depuis longtemps à l'aide d'identifiants, sans intervention humaine, en temps réel. Mais les agents IA sont d'une nature qualitativement différente.

Un processus automatisé traditionnel exécute un script fixe. Son comportement est déterministe et circonscrit. Un agent d’IA poursuit un objectif. Il choisit parmi les approches possibles et prend des mesures qui n’auraient peut-être jamais été explicitement anticipées par les humains qui l’ont déployé. Cela fait passer la relation de délégation à un tout autre niveau. Nous ne déléguons plus des tâches aux machines. Nous déléguons le jugement. Et déléguer le jugement, sans mécanisme permettant de vérifier qu'un humain disposant de l'autorité appropriée a approuvé l'exercice spécifique de ce jugement, n'est pas de la gouvernance. C'est du jeu.

Dans les transactions traditionnelles, si la signature d’un PDG figure sur un contrat, c’est à son organisation qu’il incombe de prouver qu’elle a été falsifiée. Les transactions par agent renversent cette situation. Lorsqu’un agent agit sur la base d’informations d’identification valides, mais sans preuve d’une intention humaine, l’organisation délégante peut raisonnablement affirmer que l’agent a rempli sa mission. Le délégant doit avoir l’assurance que son agent ne l’exposera pas à une responsabilité, et la contrepartie doit avoir la garantie que les engagements pris ne pourront pas être contestés.

La loi européenne sur l'IA et la jurisprudence émergente s'accordent sur un principe commun : le contrôle humain des actions de l'IA ayant des conséquences importantes doit être substantiel, et non purement formel. Le document conceptuel du NIST de février 2026 sur l'identité des agents a identifié six domaines prioritaires : l'identification, l'authentification, la délégation d'accès, l'autorisation, la journalisation et l'implication humaine. Nous estimons que l'accent devrait être mis sur ce dernier point. L'implication humaine signifie non seulement qu'un être humain définit les objectifs, mais aussi qu'il approuve tout moyen risqué ou inattendu permettant de les atteindre.

Pour qu'une autorisation humaine d'une action automatisée soit efficace, trois conditions sont nécessaires, que les déploiements actuels en entreprise ne réunissent presque jamais : la bonne personne, dont le rôle au sein de l'organisation en fait l'autorité compétente pour ce type de décision ; des informations complètes, avec un contexte suffisant pour prendre une véritable décision plutôt qu'une simple validation en un clic qui ne constitue qu'une illusion de contrôle ; et une trace identifiable, horodatée et liée à une identité humaine vérifiée. Ces exigences constituent les éléments fondamentaux de la manière dont les décisions importantes ont toujours été prises dans les organisations bien gérées.

Il s'agit ici de trouver un équilibre entre deux défis contradictoires. D'une part, nous devons combler le fossé entre l'intention et les décisions prises pour la concrétiser. D'autre part, nous devons éviter la lassitude liée à la prise de décision et laisser la place à une réflexion mûrement pesée, empreinte de bienveillance et de responsabilité, que seuls les êtres humains sont capables d'assumer.

Les organisations qui tireront pleinement parti de l'IA agentique ne sont pas celles qui disposent des agents les plus performants, mais celles qui mettent en place l'infrastructure de gouvernance nécessaire pour déployer des agents à grande échelle, en sachant qui a autorisé quoi, quand et pourquoi. 

De nombreuses organisations auront instinctivement tendance à vouloir résoudre le problème de la gouvernance en intégrant des principes éthiques dans le cadre de l'IA agentique. Mais l'éthique codée dans un modèle n'est qu'une politique. L'éthique mise en pratique par une personne, c'est la responsabilité. Le mérite humain doit être jugé à l'aune du comportement réel dans des conditions concrètes, et non en fonction du respect d'un système configuré par quelqu'un a priori. L'objectif de la gouvernance n'est pas d'éliminer le jugement humain. Il s'agit de s'assurer qu'un être humain a effectivement pris une décision, que nous savons qui l'a prise et que cette personne puisse en répondre.

 Lors de la conférence RSA qui se tiendra à San Francisco la semaine prochaine (mardi 24 mars 2026), mon collègue chez iProov, Johan Sellström, montrera comment atteindre ces objectifs. Ses démonstrations et sa présentation mettront en lumière certains des travaux novateurs menés par l'équipe pour lier les actions des agents IA à l'autorité humaine.  

Par ailleurs, nous avons récemment publié une étude de marché intitulée « La grande récession de la confiance, provoquée par les deepfakes ». Si nous ne nous attelons pas à cette tâche, je prédis, du côté des entreprises, « La grande récession de la confiance, provoquée par nos propres agents IA ».

Andrew Bud, CBE, FREng, FIET, est le fondateur et PDG d'iProov. Il travaille depuis trente ans à la croisée des domaines de l'identité, de la sécurité et des technologies émergentes.