21 de março de 2026
Os agentes de IA autónomos determinam o seu curso de ação antes de executarem fluxos de trabalho, transformando a forma como as organizações operam e revelando eficiências e capacidades que antes eram impossíveis. No entanto, concretizar este potencial acarreta também o risco de que as ações autónomas possam conduzir a consequências legais, comerciais ou éticas sem que nenhum ser humano seja responsabilizado. Para apreciar plenamente o valor da IA agênica, devemos garantir que os seres humanos verificados que delegam autoridade aos agentes permaneçam significativamente ligados às ações realizadas em seu nome.
Todas as organizações que implementam IA autônoma atualmente estão, conscientemente ou não, a criar um vazio de responsabilização, um espaço onde se tomam decisões, se assumem compromissos e se incorrem em responsabilidades sem qualquer autorização humana específica. Não se trata de um risco hipotético, mas sim de um risco arquitetónico, reforçado por credenciais automatizadas e delegadas que os sistemas de identificação nunca foram concebidos para examinar, transformando uma questão filosófica — se os fins justificam os meios — numa realidade operacional.
Os agentes de IA autónomos estão agora a conduzir negociações com fornecedores, a aprovar faturas, a alterar condições de pagamento e a iniciar fluxos de trabalho em sistemas empresariais, utilizando credenciais válidas através de APIs legítimas e seguindo protocolos concebidos com base num pressuposto inerente: que a entidade do outro lado da transação é um ser humano.
A urgência não se limita ao setor privado. A recente Estratégia Cibernética Nacional dos EUA comprometeu-se explicitamente a adotar rapidamente a IA agênica para ampliar a defesa das redes e modernizar sistemas críticos. Quando os governos estão a acelerar a implantação da IA agênica à escala nacional, a infraestrutura de governação necessária para o fazer com segurança não pode continuar a ser uma preocupação secundária.
A nossa infraestrutura de identidade tradicional parte do princípio de que a entidade em ação é humana. O FIDO2, que o setor considera, com razão, o padrão de autenticação mais robusto disponível, foi concebido com base num modelo em que é um ser humano que inicia, aprova e conclui o processo de autenticação. Toda a cadeia de confiança começa e termina com uma pessoa real. Os códigos de acesso únicos (OTPs) pressupõem que uma pessoa está a ler a SMS. As notificações push pressupõem que uma pessoa está a tocar num ecrã. Estas não são falhas. São funcionalidades criadas para um mundo em que as máquinas executam processos determinísticos postos em marcha por seres humanos. Verificam a identidade e a autorização. O que não conseguem verificar é a intenção: se um ser humano com autoridade para tomar esta decisão específica escolheu realmente tomá-la.
O setor tem vindo a debater-se com identidades não humanas há anos. As contas de serviço e os fluxos de trabalho automatizados funcionam há muito tempo com credenciais, sem intervenção humana, em tempo real. Mas os agentes de IA são qualitativamente diferentes.
Um processo automatizado tradicional executa um script fixo. O seu comportamento é determinístico e limitado. Um agente de IA persegue um objetivo. Seleciona entre as abordagens possíveis e toma medidas que podem nunca ter sido explicitamente previstas pelos humanos que o implementaram. Isto eleva a relação de delegação a um nível completamente superior. Já não estamos a delegar tarefas às máquinas. Estamos a delegar o julgamento. E delegar o julgamento, sem um mecanismo para verificar se um ser humano com autoridade adequada aprovou o exercício específico desse julgamento, não é governação. É um jogo de azar.
Nas transações tradicionais, se a assinatura de um CEO constar num contrato, cabe à sua organização provar que foi falsificada. As transações por agente invertem esta situação. Quando um agente age com base em credenciais válidas, mas sem prova de intenção humana, a organização delegante pode alegar, de forma plausível, que o agente cumpriu o seu mandato. O delegante precisa de ter a certeza de que o seu agente não o exporá a responsabilidades, e a contraparte precisa de ter a garantia de que os compromissos assumidos não poderão ser negados.
A Lei da IA da UE e a jurisprudência emergente estão a convergir para um princípio comum: a supervisão humana das ações de IA com consequências significativas deve ser substancial, e não meramente simbólica. O documento conceptual do NIST de fevereiro de 2026 sobre a identidade dos agentes, de fevereiro de 2026, identificou seis áreas de foco: identificação, autenticação, delegação de acesso, autorização, registo e vinculação «human-in-the-loop». Acreditamos que o foco deve recair sobre esta última. «Human-in-the-loop» significa não só que um ser humano define os objetivos, mas também que aprova quaisquer meios arriscados ou inesperados para os alcançar.
A autorização humana efetiva de ações automáticas requer três elementos que as atuais implementações empresariais quase nunca proporcionam em conjunto: a pessoa certa, cuja função na organização a torna a autoridade adequada para este tipo de decisão; informação completa, com contexto suficiente para tomar uma decisão genuína, em vez de uma aprovação com um único clique que constitui uma ilusão de supervisão; e um registo atribuível, com data e hora, e vinculado a uma identidade humana verificada. Estes requisitos são os elementos básicos da forma como as decisões de grande impacto sempre foram tomadas em organizações bem geridas.
Trata-se de um equilíbrio entre dois desafios opostos. Por um lado, precisamos de colmatar a lacuna entre a intenção e as decisões tomadas para a concretizar. Por outro lado, devemos evitar a «fadiga de aprovação» e criar espaço para que esta seja verdadeiramente uma decisão ponderada, cuidadosa e responsável, algo que só os seres humanos são capazes de fazer.
As organizações que irão tirar o máximo partido da IA agênica não são aquelas que possuem os agentes mais capazes, mas sim aquelas que criam a infraestrutura de governação necessária para implementar agentes em grande escala, sabendo quem autorizou o quê, quando e porquê.
O instinto de muitas organizações será resolver o desafio da governança incorporando a ética na estrutura da IA autônoma. Mas a ética codificada num modelo é uma política. A ética exercida por uma pessoa é responsabilidade. O mérito humano deve ser avaliado pelo comportamento real em condições do mundo real, não pela conformidade com um sistema que alguém configurou antecipadamente. O objetivo da governança não é eliminar o julgamento humano. É garantir que um ser humano realmente o tenha feito, que saibamos quem o fez e que essa pessoa possa responder por isso.
Na RSA Conference, que se realizará em São Francisco na próxima semana (terça-feira, 24 de março de 2026), o meu colega da iProov, Johan Sellström, irá demonstrar como estes objetivos podem ser alcançados. As suas demonstrações e apresentação destacam alguns dos trabalhos inovadores que a equipa tem vindo a desenvolver para vincular as ações dos agentes de IA à autoridade humana.
Além disso, publicámos recentemente um inquérito de investigação de mercado intitulado “A Grande Recessão da Confiança, Impulsionada pelos Deepfakes.” Se não assumirmos esta tarefa, prevejo, no lado empresarial, “A Grande Recessão da Confiança, Impulsionada pelos Nossos Próprios Agentes de IA.”
Andrew Bud, CBE, FREng, FIET, é fundador e diretor executivo da iProov. Há três décadas que trabalha na intersecção entre identidade, segurança e tecnologias emergentes.
