21 de março de 2026

Agentes de IA autônomos determinam seu curso de ação antes de executar fluxos de trabalho, transformando a forma como as organizações operam e revelando eficiências e capacidades que antes eram impossíveis. No entanto, concretizar esse potencial também acarreta o risco de que ações autônomas possam levar a consequências legais, comerciais ou éticas sem que nenhum ser humano seja responsabilizado. Para valorizar plenamente a IA autônoma, devemos garantir que os seres humanos verificados que delegam autoridade aos agentes permaneçam significativamente conectados às ações realizadas em seu nome.

Toda organização que hoje implementa IA autônoma está, conscientemente ou não, criando um vácuo de responsabilização, um espaço onde decisões são tomadas, compromissos são assumidos e responsabilidades são incorridas sem qualquer autorização humana específica. Não se trata de um risco hipotético, mas sim de um risco arquitetônico, reforçado por credenciais automatizadas e delegadas que os sistemas de identidade nunca foram projetados para examinar, transformando uma questão filosófica — se os fins justificam os meios — em uma realidade operacional.

Agentes de IA autônomos estão agora conduzindo negociações com fornecedores, aprovando faturas, alterando condições de pagamento e iniciando fluxos de trabalho em sistemas corporativos, utilizando credenciais válidas por meio de APIs legítimas e seguindo protocolos concebidos com base em uma premissa: que a entidade do outro lado da transação é um ser humano. 

A urgência não se limita ao setor privado. A recente Estratégia Cibernética Nacional dos EUA se comprometeu explicitamente a adotar rapidamente a IA autônoma para ampliar a defesa de redes e modernizar sistemas críticos. Quando os governos estão acelerando a implantação da IA autônoma em escala nacional, a infraestrutura de governança necessária para fazê-lo com segurança não pode ser deixada para segundo plano.

Nossa infraestrutura de identidade tradicional parte do princípio de que a entidade em ação é humana. O FIDO2, que o setor considera, com razão, o padrão de autenticação mais robusto disponível, foi projetado com base em um modelo no qual um ser humano inicia, aprova e conclui o processo de autenticação. Toda a cadeia de confiança começa e termina com uma pessoa real. As senhas de uso único (OTPs) pressupõem que uma pessoa está lendo o SMS. As notificações push pressupõem que uma pessoa está tocando na tela. Isso não são falhas. São recursos criados para um mundo em que máquinas executam processos determinísticos acionados por seres humanos. Elas verificam identidade e permissão. O que não conseguem verificar é a intenção: se um ser humano com autoridade para tomar essa decisão específica realmente escolheu tomá-la.

O setor vem lidando com identidades não humanas há anos. Contas de serviço e fluxos de trabalho automatizados operam há muito tempo utilizando credenciais, sem intervenção humana, em tempo real. Mas os agentes de IA são qualitativamente diferentes.

Um processo automatizado tradicional executa um roteiro fixo. Seu comportamento é determinístico e limitado. Um agente de IA busca um objetivo. Ele seleciona entre as abordagens possíveis e toma medidas que talvez nunca tenham sido explicitamente previstas pelos humanos que o implantaram. Isso eleva a relação de delegação em toda uma ordem de magnitude. Não estamos mais delegando tarefas às máquinas. Estamos delegando o julgamento. E delegar o julgamento, sem um mecanismo para verificar se um ser humano com autoridade adequada endossou o exercício específico desse julgamento, não é governança. É uma aposta.

Nas transações tradicionais, se a assinatura de um CEO constar em um contrato, cabe à sua organização provar que ela foi falsificada. As transações por meio de agentes invertem essa situação. Quando um agente age com base em credenciais válidas, mas sem prova de intenção humana, a organização delegante pode alegar, de forma plausível, que o agente cumpriu sua missão. O delegante precisa ter certeza de que seu agente não o exporá a responsabilidades, e a contraparte precisa ter a garantia de que os compromissos assumidos não poderão ser negados.

A Lei da IA da UE e a jurisprudência emergente estão convergindo para um princípio comum: a supervisão humana das ações de IA com consequências significativas deve ser substancial, e não meramente simbólica. O documento conceptual do NIST de fevereiro de 2026 sobre identidade de agentes, de fevereiro de 2026, identificou seis áreas de foco: identificação, autenticação, delegação de acesso, autorização, registro e vinculação “human-in-the-loop”. Acreditamos que o foco deva estar na última. “Human-in-the-loop” significa não apenas que um ser humano define os objetivos, mas também aprova quaisquer meios arriscados ou inesperados para alcançá-los.

A autorização humana efetiva de ações autônomas requer três elementos que as implementações empresariais atuais quase nunca oferecem em conjunto: a pessoa certa, cuja função na organização a torne a autoridade adequada para esse tipo de decisão; informações completas, com contexto suficiente para tomar uma decisão genuína, em vez de uma aprovação com um único clique que é apenas uma ilusão de supervisão; e um registro atribuível, com data e hora registradas e vinculado a uma identidade humana verificada. Esses requisitos são os elementos básicos de como decisões importantes sempre foram tomadas em organizações bem governadas.

Trata-se de um equilíbrio entre dois desafios opostos. Por um lado, precisamos colmatar a lacuna entre a intenção e as decisões tomadas para concretizá-la. Por outro lado, devemos evitar o cansaço das aprovações e criar espaço para que essa seja, de fato, uma decisão ponderada, cuidadosa e responsável, algo que só os seres humanos são capazes de fazer.

As organizações que irão aproveitar todo o potencial da IA agênica não são aquelas que possuem os agentes mais capazes, mas sim aquelas que criam a infraestrutura de governança necessária para implantar agentes em grande escala, sabendo quem autorizou o quê, quando e por quê. 

O instinto de muitas organizações será resolver o desafio da governança incorporando a ética na estrutura da IA autônoma. Mas a ética codificada em um modelo é uma política. A ética exercida por uma pessoa é responsabilidade. O mérito humano deve ser julgado pelo comportamento real em condições do mundo real, não pela conformidade com um sistema que alguém configurou antes do fato. O objetivo da governança não é eliminar o julgamento humano. É garantir que um ser humano realmente tenha feito uma decisão, que saibamos quem a tomou e que essa pessoa possa responder por ela.

 Na RSA Conference, em São Francisco, na próxima semana (terça-feira, 24 de março de 2026), meu colega da iProov, Johan Sellström, demonstrará como esses objetivos podem ser alcançados. Suas demonstrações e apresentação destacam alguns dos trabalhos inovadores que a equipe vem realizando para vincular as ações dos agentes de IA à autoridade humana.  

Além disso, publicamos recentemente uma pesquisa de opinião intitulada “A Grande Recessão da Confiança, Impulsionada pelos Deepfakes”. Se não assumirmos essa tarefa, prevejo, no lado empresarial, “A Grande Recessão da Confiança, Impulsionada por Nossos Próprios Agentes de IA”.

Andrew Bud, CBE, FREng, FIET, é fundador e CEO da iProov. Ele vem atuando há três décadas na área de identidade, segurança e tecnologias emergentes.