AI News

Branchenführer schließen sich zusammen, um die Zukunft der autonomen KI zu definieren

In einem entscheidenden Schritt zur Stabilisierung der sich schnell fragmentierenden Landschaft der künstlichen Intelligenz haben OpenAI und Cisco ihr Gewicht hinter eine massive branchenweite Initiative geworfen, um Governance-Standards für „agentische“ KI (Agentic AI) zu etablieren. Die Gründung der Agentic AI Foundation (AAIF), die unter der Linux Foundation operiert, markiert einen entscheidenden Moment im Wandel der Branche von Chatbots, die konversieren, hin zu autonomen Agenten, die komplexe Aufgaben ausführen.

Diese Koalition, zu deren Gründungsmitgliedern OpenAI, Anthropic und Block gehören, zusammen mit großen Unterstützern aus dem Unternehmensbereich wie Cisco, Microsoft und Google, zielt darauf ab, die „Interoperabilitätskrise“ (Interoperability Crisis) zu lösen, die die Einführung in Unternehmen zu bremsen droht. Die Ankündigung erfolgt zu einem Zeitpunkt, an dem Gartner eine überraschende Prognose veröffentlicht: Bis Ende 2026 werden 40 % der Unternehmenssoftware aufgabenspezifische KI-Agenten enthalten – ein Anstieg von weniger als 5 % im Jahr 2025.

Der Wandel von „Chat“ zu „Aktion“

Die Branche befindet sich derzeit an einem Wendepunkt. Während Generative KI (Generative AI / GenAI) die Welt mit ihrer Fähigkeit zur Erstellung von Texten und Bildern beeindruckte, stellt die agentische KI (Agentic AI) die funktionale Evolution der Technologie dar. Diese Agenten generieren nicht nur Inhalte; sie interagieren mit Software, führen Workflows aus und treffen Entscheidungen mit minimaler menschlicher Aufsicht.

Diese Fähigkeit birgt jedoch erhebliche Risiken. Ohne gemeinsame Standards können Agenten verschiedener Anbieter nicht kommunizieren, und Unternehmen stehen vor Sicherheitsbedenken hinsichtlich einer „Black Box“. Das Mandat der AAIF besteht darin, ein neutrales, offenes Ökosystem zu schaffen, in dem Agenten sicher über proprietäre Grenzen hinweg interagieren können.

Tabelle 1: Die Entwicklung von GenAI zu Agentic AI

Merkmal Generative KI (2023-2024) Agentische KI (2025-2026)
Kernfunktion Generierung von Inhalten (Text, Bild) Aufgabenführung & Entscheidungsfindung
Interaktion Mensch gibt Prompts, KI antwortet KI beobachtet, plant und handelt autonom
Primärer Nutzen Informationsabruf, Entwurfserstellung Workflow-Automatisierung, IT-Betrieb, Transaktionsverarbeitung
Hauptrisiko Halluzination (Falsche Informationen) Unbeabsichtigte Aktion (Datenkorruption, unbefugter Zugriff)
Interoperabilität Niedrig (Isolierte Chat-Schnittstellen) Hoch (Erfordert API/Protokoll-Standards wie MCP)
Gartner-Prognose Weitverbreitete Pilotprogramme 40 % in Unternehmensanwendungen integriert bis 2026

Ciscos strategischer Schachzug: AgenticOps

Während OpenAI und Anthropic die Software-Protokolle vorantreiben, positioniert sich Cisco als das infrastrukturelle Rückgrat für diese neue Ära. Auf dem jüngsten Cisco Live EMEA-Event in Amsterdam enthüllte der Netzwerkriese den Ausbau von AgenticOps, einem Betriebsmodell, das darauf ausgelegt ist, die immensen Rechen- und Netzwerkanforderungen autonomer Agenten zu unterstützen.

Jeetu Patel, Ciscos President und Chief Product Officer, formulierte die Initiative als eine Frage der nationalen und wirtschaftlichen Wettbewerbsfähigkeit. „AgenticOps stellt einen tiefgreifenden und grundlegenden Wandel weg von der Komplexität dar“, erklärte Patel. „Wir bewegen uns von einer KI, die lediglich beobachtet, hin zu einer KI, die schlussfolgert, entscheidet und handelt.“

Cisco identifiziert drei kritische Barrieren, die die Koalition adressieren muss, damit agentische KI kein „Wissenschaftsprojekt“ bleibt:

  1. Infrastruktur: Multi-Agenten-Systeme erfordern Netzwerke mit geringer Latenz und massive Rechenleistung. Ciscos neue Silicon One G300-Switches wurden speziell für die Bewältigung dieser KI-Cluster entwickelt.
  2. Vertrauen: Organisationen können keine Agenten einsetzen, die eine Systemkonfigurationsänderung „halluzinieren“ könnten. AgenticOps führt eine „vertrauenswürdige Validierung“ (Trusted Validation) ein, um Agentenaktionen vor der Ausführung zu verifizieren.
  3. Daten: Da öffentliche Datenquellen versiegen, benötigen Unternehmen synthetische Daten und sichere Pipelines, um diese Agenten zu trainieren, ohne proprietäre Geheimnisse preiszugeben.

Das „USB-C“ für KI: Technische Standards

Die Foundation ist nicht nur eine Diskussionsrunde; sie ist mit drei konkreten technischen Beiträgen gestartet, die darauf ausgelegt sind, eine universelle Sprache für KI-Agenten zu schaffen.

  • Model Context Protocol (MCP): Beigesteuert von Anthropic, fungiert dieser Standard wie ein „USB-C-Anschluss“ für KI-Anwendungen. Er ermöglicht es KI-Modellen, sich auf standardisierte Weise mit Datenquellen (wie Slack, Google Drive oder GitHub) zu verbinden, wodurch Entwickler nicht mehr für jedes Tool eigene Integrationen bauen müssen.
  • AGENTS.md: Beigesteuert von OpenAI, ist dies ein Markdown-basierter Standard, der als „README“ für Agenten dient. Er ermöglicht es Entwicklern, klare, menschenlesbare Anweisungen und Kontexte für Coding-Agenten zu definieren, um sicherzustellen, dass sie die Regeln eines spezifischen Projekts verstehen, bevor sie mit dem Schreiben von Code beginnen.
  • Goose: Gespendet von Block (ehemals Square), ist Goose ein Open-Source-Agenten-Framework, das lokal läuft. Es bietet eine Blaupause dafür, wie Agenten sicher auf dem Rechner eines Benutzers operieren können, und schließt so die Lücke zwischen Cloud-Intelligenz und lokaler Ausführung.

Diese Standards adressieren die von Branchenanalysten zitierte Angst vor „Fragmentierung“. Wenn jeder Anbieter einen geschlossenen Garten (Walled Garden) baut, werden Agenten für komplexe, plattformübergreifende Unternehmens-Workflows nutzlos.

Die Vertrauenslücke bei Finanzdienstleistungen

Die Dringlichkeit für diese Standards ist in regulierten Branchen wie dem Finanzwesen besonders groß. Chad Davis von F5 stellt fest, dass für Kreditgenossenschaften und Banken das Versprechen der agentischen KI – automatisierte Kreditentscheidungen, Betrugserkennung und personalisierte Finanzberatung – vollständig vom Vertrauen der Kontoinhaber abhängt.

„Transparente, erklärbare und konforme agentische KI ist nicht nur eine regulatorische Notwendigkeit; sie ist essenziell für die zukünftige Nachhaltigkeit“, argumentiert Davis. Finanzinstitute beschränken Agenten derzeit auf risikoarme interne Funktionen, da sie noch nicht garantieren können, dass ein autonomer Agent einen Kredit nicht aufgrund einer fehlerhaften Logik ablehnt. Die von der AAIF vorgeschlagenen Governance-Frameworks zielen darauf ab, die „Rückverfolgbarkeit“ (Traceability) und „Beobachtbarkeit“ (Observability) bereitzustellen, die erforderlich sind, um Prüfer und Regulierungsbehörden zufriedenzustellen.

Zukunftsausblick: Die 450-Milliarden-Dollar-Chance

Der wirtschaftliche Einsatz ist massiv. Gartner prognostiziert, dass agentische KI bis 2035 einen Umsatz von 450 Milliarden Dollar mit Unternehmenssoftware generieren könnte. Der Weg zu dieser Zahl wird jedoch durch die „Vertrauenslücke“ blockiert.

Eine McKinsey-Umfrage unter 2.000 Unternehmen ergab, dass zwar 62 % mit KI-Agenten experimentieren, aber zwei Drittel aufgrund von Governance-Bedenken noch keine bedeutenden Rollouts durchgeführt haben. In ähnlicher Weise ergab eine Collibra-Umfrage, dass 60 % der Datenverantwortlichen Governance-Schulungen Priorität einräumen, aber keine formellen Prozesse haben.

Durch die Gründung der Agentic AI Foundation versuchen Branchenführer wie OpenAI und Cisco, die „Leitplanken“ zu bauen, die es Unternehmen ermöglichen werden, die Hände vom Lenkrad zu nehmen. Wenn dies gelingt, wird 2026 nicht nur das Jahr des KI-Agenten sein, sondern das Jahr, in dem das Unternehmen ihm endlich vertraut, die Arbeit zu erledigen.

Ausgewählt