21 de marzo de 2026

Los agentes de IA autónomos determinan su línea de actuación antes de ejecutar los flujos de trabajo, lo que transforma el funcionamiento de las organizaciones y permite alcanzar niveles de eficiencia y capacidades que antes eran imposibles. Sin embargo, aprovechar este potencial también conlleva el riesgo de que las acciones autónomas puedan acarrear consecuencias legales, comerciales o éticas sin que ningún ser humano rinda cuentas por ello. Para apreciar todo el valor de la IA agentiva, debemos asegurarnos de que las personas verificadas que delegan autoridad en los agentes sigan estando conectadas de manera significativa con las acciones que se llevan a cabo en su nombre.

Toda organización que implemente hoy en día IA autónoma está creando, a sabiendas o no, un vacío de responsabilidad, un espacio en el que se toman decisiones, se asumen compromisos y se contraen obligaciones sin ninguna autorización humana específica. No se trata de un riesgo hipotético, sino de uno de naturaleza arquitectónica, reforzado por credenciales automatizadas y delegadas que los sistemas de identidad nunca fueron diseñados para examinar, lo que convierte una cuestión filosófica —si el fin justifica los medios— en una realidad operativa.

Los agentes de IA autónomos se encargan ahora de negociar con los proveedores, aprobar facturas, modificar las condiciones de pago e iniciar flujos de trabajo en los sistemas de la empresa, y lo hacen utilizando credenciales válidas a través de API legítimas, siguiendo protocolos diseñados partiendo de una premisa implícita: que la entidad al otro lado de la transacción es un ser humano. 

La urgencia no se limita al sector privado. La reciente Estrategia Cibernética Nacional de EE. UU. se ha comprometido explícitamente a adoptar rápidamente la IA agentiva para ampliar la defensa de las redes y modernizar los sistemas críticos. Cuando los gobiernos están acelerando el despliegue de la IA agentiva a escala nacional, la infraestructura de gobernanza necesaria para hacerlo de forma segura no puede quedar en un segundo plano.

Nuestra infraestructura de identidad tradicional parte del supuesto de que la entidad que actúa es humana. FIDO2, que el sector considera con razón el estándar de autenticación más sólido que existe, se diseñó en torno a un modelo en el que es un ser humano quien inicia, aprueba y completa el proceso de autenticación. Toda la cadena de confianza comienza y termina con una persona real. Los códigos de acceso de un solo uso (OTP) dan por hecho que una persona lee el SMS. Las notificaciones push dan por hecho que una persona toca una pantalla. No se trata de defectos. Son características creadas para un mundo en el que las máquinas ejecutan procesos deterministas puestos en marcha por seres humanos. Verifican la identidad y el permiso. Lo que no pueden verificar es la intención: si un ser humano con la autoridad para tomar esta decisión específica realmente decidió tomarla.

El sector lleva años lidiando con identidades no humanas. Las cuentas de servicio y los procesos automatizados llevan mucho tiempo funcionando con credenciales, sin intervención humana y en tiempo real. Pero los agentes de IA son cualitativamente diferentes.

Un proceso automatizado tradicional ejecuta un guion fijo. Su comportamiento es determinista y está delimitado. Un agente de IA persigue un objetivo. Selecciona entre los posibles enfoques y lleva a cabo acciones que quizá nunca hayan sido previstas explícitamente por los humanos que lo han implementado. Esto eleva la relación de delegación un orden de magnitud. Ya no estamos delegando tareas a las máquinas. Estamos delegando el juicio. Y delegar el juicio, sin un mecanismo para verificar que un humano con la autoridad adecuada haya respaldado el ejercicio específico de ese juicio, no es gobernanza. Es una apuesta.

En las transacciones tradicionales, si la firma de un director ejecutivo figura en un contrato, recae sobre su organización la carga de demostrar que fue falsificada. Las transacciones mediante agentes invierten esta situación. Cuando un agente actúa con credenciales válidas, pero sin prueba de intención humana, la organización delegante puede alegar de forma plausible que el agente cumplió con su mandato. El delegante necesita tener la seguridad de que su agente no le expondrá a responsabilidades, y la contraparte necesita la garantía de que los compromisos recibidos no podrán ser desautorizados.

La Ley de IA de la UE y la jurisprudencia emergente coinciden en un principio común: que la supervisión humana de las acciones de la IA con repercusiones debe ser significativa, y no meramente simbólica. El documento conceptual del NIST de febrero de 2026 sobre la identidad de los agentes identificó seis áreas de interés: identificación, autenticación, delegación de acceso, autorización, registro y vinculación del «human-in-the-loop». Creemos que la atención debe centrarse en esta última. El «human-in-the-loop» significa no solo que un ser humano establece los fines, sino que también aprueba cualquier medio arriesgado o inesperado para alcanzarlos.

Para que la autorización humana de las acciones automatizadas sea efectiva, se requieren tres elementos que las implementaciones empresariales actuales casi nunca proporcionan de forma conjunta: la persona adecuada, cuya función dentro de la organización la convierta en la autoridad competente para este tipo de decisiones; información completa, con el contexto suficiente para tomar una decisión genuina, en lugar de una aprobación con un solo clic que solo simula una supervisión; y un registro atribuible, con marca de tiempo y vinculado a una identidad humana verificada. Estos requisitos son los elementos básicos de cómo siempre se han tomado las decisiones trascendentales en las organizaciones bien gestionadas.

Se trata de un equilibrio entre dos retos contrapuestos. Por un lado, debemos salvar la brecha entre la intención y las decisiones adoptadas para llevarla a cabo. Sin embargo, debemos evitar el agotamiento por las aprobaciones y crear un espacio para que esta sea verdaderamente una decisión meditada, reflexiva y responsable, algo que solo los seres humanos pueden llevar a cabo.

Las organizaciones que sacarán el máximo partido a la IA agentiva no serán aquellas que cuenten con los agentes más capaces, sino aquellas que construyan la infraestructura de gobernanza necesaria para implementar agentes a gran escala, sabiendo quién autorizó qué, cuándo y por qué. 

El instinto de muchas organizaciones será resolver el reto de la gobernanza incorporando la ética en el marco de la IA autónoma. Pero la ética codificada en un modelo es una política. La ética ejercida por una persona es responsabilidad. El mérito humano debe juzgarse por el comportamiento real en condiciones del mundo real, no por el cumplimiento de un sistema que alguien configuró de antemano. El objetivo de la gobernanza no es eliminar la decisión basada en el juicio humano. Es garantizar que un ser humano realmente la haya tomado, que sepamos quién lo hizo y que pueda responder por ello.

 En la Conferencia RSA que se celebrará en San Francisco la próxima semana (martes, 24 de marzo de 2026), mi compañero de iProov, Johan Sellström, mostrará cómo se pueden alcanzar estos objetivos. Sus demostraciones y su presentación ponen de relieve parte del trabajo innovador que el equipo ha estado llevando a cabo para vincular las acciones de los agentes de IA a la autoridad humana.  

Además, recientemente hemos publicado una encuesta de investigación de mercado titulada «La gran recesión de la confianza, impulsada por los deepfakes». Si no asumimos esta tarea, predigo que, en el ámbito empresarial, se producirá «La gran recesión de la confianza, impulsada por nuestros propios agentes de IA».

Andrew Bud, CBE, FREng, FIET, es fundador y director ejecutivo de iProov. Lleva tres décadas trabajando en el ámbito de la identidad, la seguridad y las tecnologías emergentes.