
Die Unternehmenslandschaft steht am Rande eines tiefgreifenden Wandels, weg von passiven generativen KI-Tools hin zu autonomen „agentischen KI“-Systemen, die in der Lage sind, komplexe Arbeitsabläufe auszuführen. Ein neuer Bericht von Deloitte schlägt jedoch Alarm: Während die Einführung mit atemberaubender Geschwindigkeit beschleunigt, hinken die erforderlichen Sicherheitsrahmen für diese autonomen Systeme gefährlich hinterher.
Laut Deloittes Erkenntnissen verfügen derzeit nur 21 % der Organisationen über strenge Governance- oder Aufsichtsmechanismen für KI-Agenten(AI agents). Diese Zahl steht in starkem Kontrast zu den prognostizierten Akzeptanzraten: Die Nutzung von KI-Agenten wird voraussichtlich innerhalb von nur zwei Jahren von 23 % auf 74 % ansteigen. Während Unternehmen versuchen, die Produktivitätsgewinne autonomer Agenten zu nutzen, schafft die „Governance-Lücke“ erhebliche Risiken in Bezug auf Datenschutz, Sicherheit und Verantwortlichkeit.
Die Unterscheidung zwischen traditioneller generativer KI(Generative AI) und agentischer KI(Agentic AI) ist entscheidend. Während standardmäßige Große Sprachmodelle(Große Sprachmodelle(Large Language Models, LLMs)) Text oder Code auf Basis von Eingaben erzeugen, sind KI-Agenten darauf ausgelegt, wahrzunehmen, zu schlussfolgern und zu handeln. Sie können eigenständig Software navigieren, Transaktionen ausführen und Entscheidungen treffen, um übergeordnete Ziele zu erreichen.
Diese Fähigkeit treibt den prognostizierten Rückgang der Nicht-Anwender voran — von 25 % auf nur noch 5 % in den kommenden Jahren. Organisationen experimentieren nicht nur; sie bewegen sich hin zu produktionsreifen Einsatzszenarien, in denen Agenten als digitale Mitarbeitende agieren. Deloitte warnt jedoch, dass der Übergang von Piloten in die Produktion ohne „Cyber-AI-Blueprints(Cyber AI Blueprints)“ systemische Risiken birgt.
Der Kern von Deloittes Warnung ist nicht, dass KI-Agenten von Natur aus böswillig seien, sondern dass sie mit „schlechtem Kontext und schwacher Governance“ eingesetzt werden. In einer traditionellen Softwareumgebung sind Aktionen hart kodiert und vorhersehbar. In einer agentischen Umgebung bestimmt die KI das „Wie“ und macht den Entscheidungsprozess häufig undurchsichtig.
Ohne robuste Leitplanken können Agenten unter Halluzinationen leiden, sich endlos in Schleifen drehen oder Aktionen ausführen, die Compliance-Grenzen überschreiten. Der Bericht hebt hervor, dass undurchsichtige Systeme „fast unmöglich zu versichern“ sind, da Versicherer das Risiko eines „Black-Box“-Entscheiders nicht genau einschätzen können.
Wesentliche im Bericht identifizierte Risiken:
Um die Lücke zwischen Innovation und Sicherheit zu schließen, schlägt Deloitte eine Strategie der „Gestuften Autonomie(Tiered Autonomy)“ vor. Dieser Ansatz empfiehlt, Agenten nicht sofort die volle Kontrolle zu gewähren. Stattdessen sollte ein abgestuftes Berechtigungssystem implementiert werden, das mit der nachgewiesenen Zuverlässigkeit des Agenten und dem Risikoniveau der Aufgabe skaliert.
Die folgende Tabelle skizziert die operativen Ebenen dieses vorgeschlagenen Governance-Modells:
Table: Tiered Autonomy Levels for AI Agents
| Autonomy Level | Operational Scope | Human Oversight Requirement |
|---|---|---|
| Level 1: Read-Only | Agent kann Daten einsehen und Anfragen beantworten, aber Systeme nicht verändern. | Gering: Nachträgliche Prüfung zur Genauigkeit. |
| Level 2: Advisory | Agent analysiert Daten und bietet Vorschläge oder Pläne an. | Mittel: Menschen müssen überprüfen und über das Handeln entscheiden. |
| Level 3: Co-Pilot | Agent führt eingeschränkte Aktionen innerhalb strenger Leitplanken aus. | Hoch: Explizite menschliche Genehmigung für die Ausführung erforderlich. |
| Level 4: Autonomous | Agent handelt eigenständig bei risikoarmen, wiederkehrenden Aufgaben. | Strategisch: Überwachung der Logs; Eingreifen nur bei Alarmen. |
Diese Struktur spiegelt das Konzept der „Cyber-AI-Blueprints(Cyber AI Blueprints)“ wider, bei dem Governance-Schichten direkt in die organisatorischen Kontrollen eingebettet werden, sodass Compliance nicht eine nachträgliche Überlegung, sondern eine Voraussetzung für die Bereitstellung ist.
Der Branchenkonsens stimmt mit Deloittes Forderung nach Struktur überein. Ali Sarrafi, CEO von Kovant, betont die Notwendigkeit einer „Gelenkten Autonomie(Governed Autonomy)“. Er argumentiert, dass Agenten mit derselben Managementdisziplin wie menschliche Mitarbeitende behandelt werden müssen — definierte Grenzen, klare Richtlinien und spezifische Rollen.
„Gut gestaltete Agenten mit klaren Grenzen... können bei risikoarmen Arbeiten innerhalb klarer Leitplanken schnell handeln, aber an Menschen eskalieren, wenn Aktionen definierte Risikoschwellen überschreiten“, so Sarrafi.
Dieser Ansatz mit menschlichem Eingriff(human-in-the-loop)für Entscheidungen mit hoher Wirkung verwandelt Agenten von mysteriösen Bots in prüfbare Systeme. Durch das Führen detaillierter Aktionsprotokolle und das Zerlegen komplexer Operationen in engere Aufgaben können Unternehmen sicherstellen, dass Fehler früh erkannt werden, bevor sie sich zu kritischen Problemen auswachsen.
Eine interessante Dimension des Deloitte-Berichts ist die Beziehung zwischen KI-Governance(AI governance) und Versicherungen. Wenn Agenten beginnen, reale Aktionen auszuführen — E-Mails zu versenden, Gelder zu transferieren oder sensible Daten zu verwalten — ändert sich die Haftungslandschaft.
Versicherer sind zunehmend zurückhaltend, undurchsichtige KI-Einsätze zu decken. Um Versicherungsschutz zu erhalten, müssen Organisationen nachweisen, dass ihre Agenten innerhalb einer „Box“ strenger Berechtigungen operieren und dass jede Aktion protokolliert und reproduzierbar ist. Transparenz ist nicht länger nur eine ethische Präferenz; sie ist eine finanzielle Notwendigkeit für das Risikotransfergeschäft.
Technologie ist nur die halbe Lösung. Deloitte betont, dass eine sichere Einführung eine Belegschaft erfordert, die in „KI-Kompetenz(AI Literacy)“ geschult ist. Mitarbeitende müssen verstehen:
Während die Akzeptanzrate auf das 74 %-Ziel zusteuert, wird der Wettbewerbsvorteil nicht denen gehören, die Agenten am schnellsten einsetzen, sondern denen, die sie mit der Transparenz und Kontrolle einführen, die erforderlich ist, um Vertrauen zu erhalten. Die Ära des „move fast and break things“ ist vorbei; in der Ära der agentischen KI lautet das neue Mantra: „schnell handeln mit Leitplanken“.