
Der bekannte Science-Fiction-Autor, Aktivist und Journalist Cory Doctorow hat eine deutliche Warnung zur aktuellen Lage der künstlichen Intelligenz (artificial intelligence) ausgesprochen und charakterisiert sie als eine finanzielle Blase, die zu einem dramatischen Zusammenbruch verurteilt ist. Mitten im vorhergesagten Trümmerfeld gescheiterter Startups und geschlossener Rechenzentren prognostiziert Doctorow jedoch eine widerstandsfähige Zukunft für Open-Source-KI-Modelle (open-source AI models), die Schöpfern und Entwicklern greifbare, nutzorientierte Werkzeuge bieten.
In einer umfassenden Analyse, die diese Woche veröffentlicht wurde, argumentiert Doctorow, dass die gegenwärtige Aufregung rund um generative KI (generative AI) weniger von technologischem Nutzen getrieben wird als von den finanziellen Zwängen der „Wachstumsaktien“ (growth stocks) und monopolistischen Tech-Giganten. Zwar erscheint die kurzfristige Aussicht für die massiven Kapitalinvestitionen der Branche düster, doch die langfristige Prognose deutet auf eine Verschiebung hin zu dezentralisierten, lokal betreibbaren KI-Werkzeugen, die den Nutzern dienen, anstatt sie zu unterjochen.
Doctorows Kritik beginnt bei den finanziellen Strukturen des Silicon Valley. Er stellt die These auf, dass der aktuelle KI-Boom eine direkte Folge des Paradoxons der „Wachstumsaktien“ (growth stocks) ist. Große Tech-Monopole, die bereits dominante Marktanteile in Bereichen wie Suche, Werbung und Mobilgeräte erobert haben, stehen vor einem Wachstumsproblem. Um die hohen Kurs-Gewinn-Verhältnisse (PE), die Investoren verlangen, aufrechtzuerhalten, müssen diese Unternehmen kontinuierlich neue „Wachstumsgeschichten“ erfinden und aufblasen.
Laut Doctorow ist KI die jüngste in einer Reihe solcher Narrative, nach den Entwicklungen rund um Metaverse, NFTs und Kryptowährungen. Die Hunderte Milliarden Dollar, die in KI-Infrastruktur fließen, spiegeln nicht notwendigerweise die unmittelbare Rentabilität der Technologie wider, sondern dienen dazu, den Markt davon zu überzeugen, dass diese etablierten Unternehmen immer noch zu exponentiellem Wachstum fähig sind.
Die Gefahr, so die Analyse, besteht darin, dass diese spekulativen Investitionen eine Blase erzeugen, die mathematisch nicht aufrechterhalten werden kann. Wenn der Markt sich schließlich korrigiert — und erkennt, dass die Technologie die Arbeit nicht im versprochenen Umfang ersetzen kann — werden die Bewertungen dieser Unternehmen einbrechen, was zu einer weitreichenden Branchenkontraktion führt.
Ein zentrales Thema in Doctorows Argumentation ist die Unterscheidung zwischen zwei Arten der Mensch-Maschine-Interaktion: dem „Zentaur“ (Centaur) und dem „Umgekehrten Zentaur“ (Reverse Centaur). Dieses Rahmenmodell hilft zu erklären, warum sich aktuelle Unternehmens-KI-Einsätze oft ausbeuterisch anfühlen, anstatt zu befähigen.
Tabelle 1: Der Zentaur vs. Der Umgekehrte Zentaur
| Konzept | Definition | Beispielszenario |
|---|---|---|
| Der Zentaur | Ein Mensch, der von einer Maschine unterstützt wird, um Fähigkeiten und Effizienz zu steigern. Der Mensch bleibt für das Ergebnis in Kontrolle. |
Ein Autor, der Autocomplete nutzt, um das Tippen zu beschleunigen oder ein Entwickler, der KI für repetitive Syntaxaufgaben einsetzt. |
| Der Umgekehrte Zentaur | Ein Mensch, der als biologischer Anhang einer Maschine dient. Die Maschine diktiert das Tempo und die Parameter der Arbeit. |
Ein Lieferfahrer, der von KI-Kameras bezüglich Blickbewegungen und Effizienzmessungen überwacht wird. |
Doctorow warnt, dass die derzeitige Unternehmensstrategie darauf abzielt, „Umgekehrte Zentauren“ zu schaffen. Das Ziel ist nicht, Arbeiter mächtiger zu machen, sondern Arbeitskraft zu entprofessionalisieren, sodass hochbezahlte Fachkräfte (wie Radiologie-Fachkräfte oder leitende Entwickler) ersetzt oder ihre Löhne gedrückt werden können. In diesem Modell bleibt der Mensch hauptsächlich im Prozess, um als „Zuständigkeitsfalle“ zu dienen — jemand, dem die Schuld gegeben werden kann, wenn das automatisierte System unvermeidlich einen katastrophalen Fehler macht.
Trotz aggressiver Marketingbotschaften, die behaupten, KI werde große Teile der Erwerbsbevölkerung ersetzen, argumentiert Doctorow, dass die Technologie in ihrer aktuellen Form grundlegend unfähig dazu ist, dies effektiv zu tun. Er nennt das Gebiet der Radiologie (radiology) als ein hervorragendes Beispiel. Während KI Muster in Röntgenaufnahmen erkennen kann, fokussiert sich das Geschäftsmodell, das ihre Adoption vorantreibt, nicht auf Genauigkeit oder Patientenergebnisse, sondern auf Kostenreduktion.
Das Risiko besteht darin, fachliches menschliches Urteil durch ein automatisiertes System zu ersetzen, das statistisch beeindruckend, aber anfällig für Halluzinationen ist. In der Softwareentwicklung zeigt sich dies in KI-generiertem Code, der funktional erscheint, aber subtile, gefährliche Fehler enthält — etwa „halluzinierte“ Code-Bibliotheken, die nicht existieren oder, schlimmer noch, von böswilligen Akteuren beansprucht wurden, um Systeme zu kompromittieren.
Die Analyse legt nahe, dass KI für Unternehmen nur dann wirklich wertvoll wäre, wie Investoren es erwarten, wenn sie hochbezahlte Arbeitskräfte ersetzt. Genau dies sind jedoch die Rollen, in denen die Fehlerkosten am höchsten sind und in denen menschliche Aufsicht am kritischsten ist. Diese Diskrepanz zwischen dem Versprechen der Ersetzung von Arbeit und der Realität technischer Begrenzungen ist ein Haupttreiber des Drucks auf die Blase.
Einer der bedeutendsten rechtlichen Schauplätze für KI ist das Urheberrecht (copyright). Doctorow vertritt eine konträre Sicht gegenüber den zunehmenden Forderungen nach neuen Urheberrechtsgesetzen, die Trainingsdaten für KI regeln sollen. Er argumentiert, dass eine Ausweitung des Urheberrechts, die das Training an öffentlichen Daten verbietet, nach hinten losgehen und nur die Macht großer Medienmonopole verfestigen würde, die bereits die Rechte an riesigen Inhaltskatalogen kontrollieren.
Stattdessen befürwortet Doctorow die derzeitige Position des US Copyright Office, das wiederholt entschieden hat, dass KI-generierte Werke nicht urheberrechtlich geschützt werden können, weil ihnen menschliche Urheberschaft fehlt. Dieses rechtliche Prinzip hat tiefgreifende Implikationen:
Indem KI-Ausgaben gemeinfrei gehalten werden, verringert das Rechtssystem den Anreiz für Unternehmen, kreative Prozesse vollständig zu automatisieren, da sie in diesem Fall die geistigen Eigentumsrechte verlieren würden, die das Fundament ihrer Geschäftsmodelle bilden.
Obwohl die Prognose eines Marktcrashs düster ist, ist Doctorows Ausblick nicht völlig pessimistisch. Er zieht eine Parallele zur Dotcom-Blase und zu den Telekommunikationsbetrügereien der frühen 2000er Jahre. Während Unternehmen wie WorldCom aufgrund von Betrug und Misswirtschaft zusammenbrachen, blieb die von ihnen verlegte Glasfaserkabel-Infrastruktur im Boden und trieb schließlich das moderne Internet an.
In ähnlicher Weise prognostiziert Doctorow, dass beim Platzen der KI-Blase das „Asbest“ toxischer Finanzanlagen und nutzloser Hypes entfernt wird und wertvolle Überreste zurückbleiben.
Was den Crash überleben wird:
Doctorow stellt sich eine Zukunft vor, in der „Große KI“ (Big AI) — massive Foundation-Modelle (foundation models), die in zentralisierten, energiehungrigen Rechenzentren laufen — zurücktritt. An ihre Stelle tritt die Verbreitung von „Kleiner KI“ (Small AI): lokale Plugins und Werkzeuge, die spezifische, nützliche Aufgaben ohne Überwachung oder Abonnementgebühren erfüllen.
Diese überlebenden Werkzeuge werden wahrscheinlich Dienstleistungsaufgaben übernehmen wie:
Diese Anwendungen, befreit vom Druck, Billionen-Returns zu liefern, werden als echte Versorgungsfunktionen funktionieren — „Plugins“, die die Produktivität steigern, ohne eine Umstrukturierung der gesamten Wirtschaft oder die Unterjochung der Arbeitskräfte zu verlangen.
Die von Doctorow vorgetragene Perspektive stellt die Unvermeidbarkeit der gegenwärtigen KI-Erzählung in Frage. Indem er die Technologie von der finanziellen Spekulation daran trennt, zeigt er einen Weg auf, der Open-Source-Resilienz der Unternehmensmonopolisierung vorzieht. Für die KI-Community ist die Botschaft klar: Die Blase mag platzen, aber die Werkzeuge, die Nutzer wirklich befähigen, werden überleben — vorausgesetzt, sie werden auf einer Grundlage von Offenheit und menschlicher Kontrolle gebaut.
Während die Branche mit diesen Vorhersagen ringt, könnte sich der Fokus für Entwickler und Kreative vom Jagen nach der nächsten massiven Bewertung hin zu dem Aufbau nachhaltiger, lokaler und menschenzentrierter Werkzeuge verlagern, die die Post-Blasen-Landschaft definieren werden.