
Die Diskussion über künstliche Intelligenz wurde lange Zeit von der Verfolgung der Allgemeinen künstlichen Intelligenz (Allgemeine künstliche Intelligenz (Artificial General Intelligence, AGI)) dominiert — dem Streben, Maschinen zu schaffen, die die menschliche Kognition in allen Bereichen nachbilden und möglicherweise übertreffen können. Gestern wurde in einem wegweisenden Bericht des Forbes-Autors Chuck Brooks jedoch eine bedeutende Verschiebung in diesem Narrativ hervorgehoben. Die Branche erlebt das Entstehen eines pragmatischeren und unmittelbar wirkungsvolleren Paradigmas: Menschenzentrierte KI (Human-Centric AI).
Dieser neue Ansatz, der die Erweiterung menschlicher Fähigkeiten vor deren Ersetzung priorisiert, legt nahe, dass die Zukunft der Technologie nicht in autonomen empfindungsfähigen Maschinen liegt, sondern in Systemen, die darauf ausgelegt sind, menschliche Entscheidungsfindung auf „übermenschliche“ Niveaus zu heben. Bei Creati.ai erkennen wir diese Wendung als eine kritische Reifung der Branche — ein Übergang von theoretischer Dominanz zu praktischer, ethischer Befähigung.
Zentral für dieses neue Paradigma ist das Konzept der Allgemeinen künstlichen Entscheidungsfindung (Allgemeine künstliche Entscheidungsfindung (Artificial General Decision Making, AGD)). Von Innovatoren wie Klover.ai vorangetrieben und in jüngsten Branchenanalysen detailliert beschrieben, stellt AGD einen grundlegenden Bruch mit den Zielen der AGI dar. Während die AGI darauf abzielt, eine Maschine zu bauen, die „alles“ tun kann, was ein Mensch kann, konzentriert sich AGD darauf, Systeme zu entwickeln, die Menschen dabei helfen, besser zu entscheiden, als sie es je allein könnten.
AGD-Systeme sind als vernetzte Ensembles spezialisierter Agenten konzipiert. Diese Agenten versuchen nicht, menschliches Bewusstsein zu simulieren; stattdessen verarbeiten sie rigoros riesige Datensätze, modellieren komplexe Szenarien und präsentieren umsetzbare Erkenntnisse, die den menschlichen Kontext und die Prioritäten respektieren. Der Erfolgsmaßstab für AGD ist nicht eine autonome Maschine, sondern ein befähigter menschlicher Nutzer, der seine Handlungsfähigkeit behält und gleichzeitig mit exponentiell größerer Effizienz und Voraussicht agiert.
Die technische Grundlage von AGD beruht auf Multi-Agenten-Systemen (Multi-Agenten-Systeme (multi-agent systems)), die zusammenarbeiten, um spezifische Probleme zu lösen. Anders als ein monolithisches Modell, das versucht, ein „Alleskönner“ zu sein, setzt ein AGD-Framework unterschiedliche Agenten für Datenanalyse, strategische Prognosen und Risikobewertung ein. Diese Agenten arbeiten im Zusammenspiel, um eine umfassende Entscheidungsunterstützungsstruktur bereitzustellen.
Beispielsweise könnte ein AGD-System in einem Unternehmensumfeld einen Agenten haben, der Echtzeit-Marktschwankungen analysiert, einen anderen, der Verwundbarkeiten in der Lieferkette bewertet, und einen dritten, der regulatorische Änderungen vorhersagt. Die Synthese dieser Daten ist kein endgültiger Befehl der Maschine, sondern eine nuancierte Landschaft von Optionen, die dem menschlichen Entscheidungsträger präsentiert wird. Diese Struktur stellt sicher, dass der „Mensch in der Schleife“ nicht lediglich eine Sicherung ist, sondern der letztendliche Architekt des Ergebnisses.
Um die Bedeutung dieser Verschiebung vollständig zu erfassen, ist es unerlässlich, das etablierte Streben nach AGI mit dem aufkommenden Nutzen von AGD zu kontrastieren. Die folgende Tabelle skizziert die unterschiedlichen operativen und philosophischen Unterschiede zwischen diesen beiden Ansätzen.
Tabelle: Abweichende Pfade der KI-Entwicklung
| Feature | Artificial General Intelligence (AGI) | Artificial General Decision Making (AGD) |
|---|---|---|
| Core Philosophy | Replicate human cognition in machines | Augment human cognitive capacity |
| Primary Goal | Create "superhuman machines" | Enable "superhuman humans" |
| Operational Role | Autonomous execution of tasks | Collaborative decision support |
| Success Metric | Machine independence | Enhanced human productivity |
| Ethical Focus | Control and alignment safeguards | Agency and transparency |
---|---|----
Dieser Vergleich macht deutlich, warum AGD bei Unternehmensführern und Ethikern gleichermaßen an Zustimmung gewinnt. Es bietet einen Weg zu einem „Hyperkapitalismus mit Tugend“ („hyper-capitalism with virtue“), bei dem Produktivitätsgewinne nicht auf Kosten der menschlichen Unersetzlichkeit erzielt werden.
Die Bewegung hin zur Menschenzentrierten KI (Human-Centric AI) ist nicht nur technisch; sie ist zutiefst ethisch. Eine der Hauptkritiken an der AGI war die potenzielle Erosion der menschlichen Handlungsmacht — die Befürchtung, dass Menschen mit zunehmender Intelligenz der Maschinen weniger relevant werden. AGD begegnet diesem Problem direkt, indem es den Menschen als den unverzichtbaren „Kommandeur“ des intelligenten Systems positioniert.
Indem Entwickler den Schwerpunkt auf Entscheidungsaugmentation (Entscheidungsaugmentation (Decision Augmentation)) legen, können viele der existenziellen Risiken, die mit empfindungsfähiger KI verbunden sind, umgangen werden. Das Ziel verschiebt sich von „Wie kontrollieren wir die KI?“ zu „Wie hilft uns die KI, unsere komplexe Welt zu kontrollieren?“ Diese Perspektive fördert eine zirkulärere Ökonomie der Intelligenz, in der menschliche Kreativität und maschinelle Verarbeitungskraft ineinanderfließen.
Dennoch bleiben Herausforderungen. Die Implementierung von AGD erfordert rigoroses Datenmanagement, um das „Garbage in, Garbage out“-Phänomen zu verhindern. Da AGD-Systeme darauf ausgelegt sind, Entscheidungen mit hohen Einsätzen zu beeinflussen, müssen sie frei von den Verzerrungen sein, die oft in historischen Trainingsdaten eingebettet sind. Transparenz wird unverhandelbar; ein Mensch kann nicht effektiv mit einem System zusammenarbeiten, wenn dessen Entscheidungsweg eine „Black Box“ ist.
Wenn wir auf den Rest des Jahres 2026 und darüber hinaus blicken, deutet die Einführung von AGD auf eine Zukunft hin, die durch geteilte Handlungsfähigkeit (shared agency) definiert ist. Das Narrativ bewegt sich weg von einem Nullsummenspiel zwischen biologischer und künstlicher Intelligenz. Stattdessen treten wir in eine Ära der Koevolution ein.
Für Branchen von der Gesundheitsversorgung — wo AGD Ärzten helfen kann, seltene Erkrankungen mit größerer Genauigkeit zu diagnostizieren — bis hin zu Finanzen und Logistik sind die Implikationen tiefgreifend. Wir bauen keine Ersatzsysteme; wir bauen Exoskelette für den Verstand.
Bei Creati.ai sind wir der Ansicht, dass der Aufstieg der Menschenzentrierten KI die Notwendigkeit verantwortungsvoller, transparenter und benutzerorientierter Technologie bestätigt. Die „übermenschliche“ Zukunft dreht sich nicht um die Maschinen, die wir bauen, sondern darum, was diese Maschinen uns ermöglichen zu werden. Der Übergang zur Allgemeinen künstlichen Entscheidungsfindung ist mehr als ein Trend; er ist der Bauplan für eine nachhaltige, kollaborative Intelligenz.