21. März 2026

Autonome KI-Agenten legen ihre Vorgehensweise fest, bevor sie Arbeitsabläufe ausführen. Dies verändert die Arbeitsweise von Organisationen grundlegend und erschließt Effizienzgewinne und Möglichkeiten, die zuvor undenkbar waren. Die Ausschöpfung dieses Potenzials birgt jedoch auch das Risiko, dass autonome Handlungen rechtliche, wirtschaftliche oder ethische Konsequenzen nach sich ziehen, ohne dass ein Mensch dafür zur Verantwortung gezogen werden kann. Um den vollen Wert der agentenbasierten KI ausschöpfen zu können, müssen wir sicherstellen, dass die verifizierten Menschen, die den Agenten Befugnisse übertragen, weiterhin eine sinnvolle Verbindung zu den in ihrem Namen ergriffenen Maßnahmen behalten.

Jede Organisation, die heute agentische KI einsetzt, schafft – bewusst oder unbewusst – ein Verantwortungsvakuum, einen Raum, in dem Entscheidungen getroffen, Verpflichtungen eingegangen und Verbindlichkeiten eingegangen werden, ohne dass eine konkrete menschliche Genehmigung vorliegt. Dies ist kein hypothetisches Risiko, sondern ein strukturelles, das durch automatisierte und delegierte Berechtigungsnachweise verstärkt wird, für deren Überprüfung Identitätssysteme nie konzipiert wurden. Dadurch wird eine philosophische Frage – ob der Zweck die Mittel heiligt – zur operativen Realität.

Autonome KI-Agenten führen mittlerweile Lieferantenverhandlungen durch, genehmigen Rechnungen, ändern Zahlungsbedingungen und initiieren Arbeitsabläufe über Unternehmenssysteme hinweg – und zwar mit gültigen Zugangsdaten über legitime APIs und unter Einhaltung von Protokollen, die auf einer einzigen Annahme beruhen: dass es sich bei der Gegenpartei einer Transaktion um einen Menschen handelt. 

Die Dringlichkeit beschränkt sich nicht nur auf den privaten Sektor. Die jüngste US-amerikanische Nationale Cyberstrategie hat sich ausdrücklich dazu verpflichtet, agentische KI rasch einzuführen, um die Netzwerkverteidigung auszuweiten und kritische Systeme zu modernisieren. Wenn Regierungen den Einsatz agentischer KI auf nationaler Ebene beschleunigen, darf die dafür erforderliche Governance-Infrastruktur nicht erst im Nachhinein berücksichtigt werden.

Unsere bestehende Identitätsinfrastruktur geht davon aus, dass es sich bei der handelnden Instanz um einen Menschen handelt. FIDO2, das in der Branche zu Recht als der derzeit sicherste Authentifizierungsstandard gilt, wurde auf der Grundlage eines Modells entwickelt, bei dem ein Mensch den Authentifizierungsprozess initiiert, genehmigt und abschließt. Die gesamte Vertrauenskette beginnt und endet mit einer realen Person. Einmalige Passwörter (OTPs) setzen voraus, dass eine Person die SMS liest. Push-Benachrichtigungen setzen voraus, dass eine Person auf einen Bildschirm tippt. Das sind keine Mängel. Es sind Funktionen, die für eine Welt entwickelt wurden, in der Maschinen deterministische Prozesse ausführen, die von Menschen in Gang gesetzt wurden. Sie überprüfen Identität und Berechtigung. Was sie nicht überprüfen können, ist die Absicht: ob ein Mensch mit der Befugnis, diese spezifische Entscheidung zu treffen, sich tatsächlich dafür entschieden hat, sie zu treffen.

Die Branche beschäftigt sich schon seit Jahren mit nicht-menschlichen Identitäten. Dienstkonten und automatisierte Pipelines werden seit langem in Echtzeit und ohne menschliches Zutun mithilfe von Anmeldedaten betrieben. KI-Agenten unterscheiden sich jedoch grundlegend davon.

Ein herkömmlicher automatisierter Prozess führt ein festgelegtes Skript aus. Sein Verhalten ist deterministisch und begrenzt. Ein KI-Agent verfolgt ein Ziel. Er wählt aus möglichen Vorgehensweisen aus und ergreift Maßnahmen, die von den Menschen, die ihn eingesetzt haben, möglicherweise nie ausdrücklich vorhergesehen wurden. Dies hebt die Delegationsbeziehung um eine ganze Größenordnung an. Wir delegieren nicht mehr nur Aufgaben an Maschinen. Wir delegieren Urteilsvermögen. Und das Delegieren von Urteilsvermögen ohne einen Mechanismus, der sicherstellt, dass ein Mensch mit entsprechender Befugnis die konkrete Ausübung dieses Urteilsverfahrens gebilligt hat, ist keine Governance. Es ist ein Glücksspiel.

Bei herkömmlichen Transaktionen trägt das Unternehmen die Beweislast dafür, dass eine Unterschrift des CEO auf einem Vertrag gefälscht ist, sofern diese vorhanden ist. Bei agentenbasierten Transaktionen ist dies umgekehrt. Wenn ein Agent auf der Grundlage gültiger Zugangsdaten handelt, ohne dass ein menschlicher Wille nachgewiesen werden muss, kann das beauftragende Unternehmen plausibel geltend machen, dass der Agent seinen Auftrag erfüllt hat. Der Auftraggeber muss darauf vertrauen können, dass sein Agent ihn keiner Haftung aussetzt, und die Gegenpartei benötigt die Gewissheit, dass eingegangene Verpflichtungen nicht zurückgewiesen werden können.

Das EU-KI-Gesetz und die sich entwickelnde Rechtsprechung stimmen in einem gemeinsamen Grundsatz überein: Die menschliche Aufsicht über KI-Maßnahmen mit weitreichenden Folgen muss substanziell sein und darf nicht nur pro forma erfolgen. Das Konzeptpapier des NIST vom Februar 2026 zur Identität von Agenten identifizierte sechs Schwerpunktbereiche: Identifizierung, Authentifizierung, Zugriffsdelegierung, Autorisierung, Protokollierung und „Human-in-the-Loop“-Bindung. Wir sind der Ansicht, dass der Schwerpunkt auf Letzterem liegen sollte. „Human-in-the-Loop“ bedeutet nicht nur, dass ein Mensch die Ziele festlegt, sondern auch, dass er alle riskanten oder unerwarteten Mittel zu deren Erreichung genehmigt.

Eine wirksame menschliche Genehmigung von automatisierten Handlungen erfordert drei Dinge, die in aktuellen Unternehmensumgebungen fast nie gemeinsam gegeben sind: die richtige Person, deren Rolle im Unternehmen sie zur zuständigen Entscheidungsinstanz für diese Art von Entscheidungen macht; vollständige Informationen und ausreichender Kontext, um eine echte Entscheidung zu treffen, anstatt eine Ein-Klick-Genehmigung, die nur den Anschein von Kontrolle erweckt; sowie eine nachverfolgbare Aufzeichnung mit Zeitstempel, die mit einer verifizierten menschlichen Identität verknüpft ist. Diese Anforderungen sind die grundlegenden Elemente, nach denen wichtige Entscheidungen in gut geführten Organisationen seit jeher getroffen werden.

Es geht hier um einen Spagat zwischen zwei gegensätzlichen Herausforderungen. Einerseits müssen wir die Kluft zwischen der Absicht und den zu ihrer Umsetzung getroffenen Entscheidungen schließen. Andererseits müssen wir eine „Genehmigungsmüdigkeit“ vermeiden und Raum schaffen, damit es sich wirklich um eine Entscheidung handelt, die von Überlegung, Sorgfalt und Verantwortung geprägt ist – etwas, das nur Menschen leisten können.

Die Unternehmen, die den vollen Nutzen der agentenbasierten KI ausschöpfen werden, sind nicht diejenigen mit den leistungsfähigsten Agenten, sondern diejenigen, die eine Governance-Infrastruktur aufbauen, um Agenten in großem Maßstab einzusetzen und dabei genau zu wissen, wer was wann und warum genehmigt hat. 

Viele Organisationen werden instinktiv versuchen, die Herausforderung der Governance zu lösen, indem sie ethische Grundsätze in das Framework der agentenbasierten KI einprogrammieren. Doch in einem Modell festgeschriebene Ethik ist eine Richtlinie. Von einem Menschen gelebte Ethik ist Verantwortlichkeit. Menschliche Leistung sollte anhand des tatsächlichen Verhaltens unter realen Bedingungen beurteilt werden, nicht anhand der Einhaltung eines Systems, das jemand im Voraus konfiguriert hat. Das Ziel der Governance besteht nicht darin, menschliche Ermessensentscheidungen zu eliminieren. Es besteht darin, sicherzustellen, dass ein Mensch tatsächlich eine solche Entscheidung getroffen hat, dass wir wissen, wer dies getan hat, und dass diese Person dafür zur Rechenschaft gezogen werden kann.

 Auf der RSA-Konferenz in San Francisco nächste Woche (Dienstag, 24. März 2026) wird mein Kollege bei iProov, Johan Sellström, demonstrieren, wie diese Ziele erreicht werden können. Seine Vorführungen und sein Vortrag beleuchten einige der innovativen Arbeiten, die das Team durchgeführt hat, um die Handlungen von KI-Agenten an menschliche Autorität zu binden.  

Darüber hinaus haben wir kürzlich eine Verbraucherumfrage mit dem Titel „Die große Vertrauenskrise, ausgelöst durch Deepfakes“. Wenn wir diese Aufgabe nicht angehen, prophezeie ich auf Unternehmensseite „Die große Vertrauenskrise, ausgelöst durch unsere eigenen KI-Agenten“.

Andrew Bud, CBE, FREng, FIET, ist Gründer und CEO von iProov. Seit drei Jahrzehnten ist er an der Schnittstelle zwischen Identitätsmanagement, Sicherheit und neuen Technologien tätig.