
Das goldene Zeitalter der „Blanko-Scheck“-KI-Forschung entwickelt sich zu etwas deutlich Disziplinierterem, zugleich aber paradoxerweise Verwirrenderem denn je. Jahrelang operierte die Branche nach einer einfachen Zweiteilung: Entweder man lieferte Produkte aus oder man war erledigt. Aber während wir uns ins Jahr 2026 einleben, zeichnet sich in den kapitalkräftigen Fluren des Silicon Valley eine neue Nuance ab. Die Frage lautet nicht mehr nur „Bist du profitabel?“, sondern vielmehr: „Versuchst du es überhaupt?“
Eine wegweisende Analyse, die diese Woche von TechCrunch veröffentlicht wurde, hat dieses Sentiment in eine „Commercial Ambition Scale“ (Commercial Ambition Scale) formalisiert, ein Fünf-Stufen-Rahmenwerk, das dazu gedacht ist, durch das Hype-Nebel zu schneiden und die tatsächliche geschäftliche Absicht der weltweit führenden KI-Labore zu kategorisieren. Dieser Wandel kommt an einem kritischen Punkt. Da Risikokapital (venture capital) weiterhin Foundation-Modelle (foundation models) verfolgt und Bewertungen erzielt, die der traditionellen Schwerkraft trotzen, beginnt die Unterscheidung zwischen Forschungsinstitut und Unternehmen zu verschwimmen.
Für Branchenbeobachter und Investoren gleichermaßen ist es nicht länger eine akademische Übung zu verstehen, wo ein Labor auf diesem Spektrum steht — es ist eine Überlebensvoraussetzung. Der Bericht hebt ein sich auseinanderentwickelndes Ökosystem hervor, in dem Unternehmen wie Safe Superintelligence (SSI) und World Labs trotz Konkurrenz um dasselbe Talent und dieselben GPU-Cluster (GPU clusters) mit grundlegend unterschiedlichen physiologischen Zwängen und Zielen operieren.
Das neue Rahmenwerk geht über einfache Umsatzmetriken (Umsatz (revenue)) hinaus, um die Absicht und die strukturelle Verpflichtung zur Monetarisierung (Monetarisierung (monetization)) zu bewerten. Es bietet eine Linse, durch die wir endlich verstehen können, warum ein Unternehmen ohne Umsatz höher bewertet sein kann als eines mit ausgeliefertem Produkt.
The Commercial Ambition Scale:
| Level | Ambitionstyp | Merkmale | Schlüsselbeispiel |
|---|---|---|---|
| Level 1 | Reine Forschung (Pure Research) | Konzentration auf die Sicherheit von AGI/ASI (AGI/ASI safety) über alles. Keine Produktzyklen. Wehrt sich aktiv gegen kommerziellen Druck. „Wohlstand ist Selbstverwirklichung.“ | Safe Superintelligence (SSI) |
| Level 2 | Frühe Explorationsphase (Early Exploratory) | Anfängliche kommerzielle Ambitionen, operativ jedoch wissenschaftlich ausgerichtet. Umsatz ist zufällig, kein Ziel. | Various stealth startups |
| Level 3 | Hybrid / vage (Hybrid / Vague) | Starke Produkt„ideen“ und massive Finanzierung, aber unklare Fahrpläne. Hohe Bewertung basierend auf Team-Pedigree statt auf Kennzahlen. | Humans& |
| Level 4 | Marktreif (Commercial-Ready) | Liefert funktionale Produkte mit klarem Nutzen. Umsatz bildet sich heraus. Operative Abläufe sind auf Skalierung und Kundensupport ausgerichtet. | World Labs, Thinking Machines Lab |
| Level 5 | Umsatzmaschine (Revenue Engine) | Vollständig ausgereifte Monetarisierung (Monetization (monetization)). Vorhersehbare wiederkehrende Einnahmen (recurring revenue). Optimierung der Margen hat Priorität. | OpenAI, Anthropic |
Am äußersten Ende des Spektrums liegt Safe Superintelligence (SSI), das geistige Kind des ehemaligen OpenAI-Chefwissenschaftlers Ilya Sutskever. SSI repräsentiert den Archetyp von Level 1: ein Labor, das Milliarden eingesammelt hat, nicht um ein Produkt zu bauen, sondern um ein wissenschaftliches Problem zu lösen.
Trotz einer Bewertung (valuation (valuation)) die bis März 2025 auf 30 Milliarden Dollar in die Höhe schoss, operiert SSI mit einer „mönchhaften“ Fokussierung. Das Unternehmen hat Akquisitionsangebote — namentlich von Meta — ausdrücklich abgelehnt und weigert sich, sich in das Wettrennen um das Ausliefern von Chatbots (chatbots) oder Enterprise-APIs (API (API)) einzureihen. Ihr singuläres Produkt ist „Safe Superintelligence“, ein Ziel, das wahrscheinlich Jahre, wenn nicht Jahrzehnte entfernt liegt.
Für ein durchschnittliches Unternehmen wäre dieses Fehlen von Umsatz ein Todesurteil. Für SSI ist es ein Feature. Das Geschäftsmodell des Unternehmens ist effektiv eine Option auf die Zukunft der Menschheit. Investoren kaufen keinen Cashflow-Strom; sie kaufen ein Ticket zu dem exklusivsten Ereignis der Geschichte. Dennoch hat selbst Sutskever auf den Pragmatismus hingedeutet, der dieser Stufe zugrunde liegt, und angedeutet, dass das Labor sich womöglich neu ausrichten könnte, sollten die Forschungstimeline zu lang werden. Aber vorerst bleiben sie das teuerste wissenschaftliche Experiment der Branche, vom Markt durch eine Mauer aus Kapital und Überzeugung abgeschirmt.
Auf dem Weg nach oben stoßen wir auf das enigmatische „Level 3“, am besten verkörpert durch das neu gegründete Labor Humans&. Gegründet von einem Superteam von Alumni von Google, Anthropic und xAI schloss Humans& kürzlich eine erstaunliche Seed-Finanzierungsrunde (seed round) über 480 Millionen Dollar ab, die das drei Monate alte Unternehmen mit nahezu 4,5 Milliarden Dollar bewertete.
Humans& nimmt einen seltsamen Mittelweg ein. Im Gegensatz zu SSI sind sie nicht rein theoretisch; ihre Mission spricht davon, „Bindegewebe“ für menschliche Zusammenarbeit zu bauen und Werkzeuge, die Arbeiter ergänzen statt ersetzen. Dennoch fehlt ihnen der konkrete Produkt-Fußabdruck eines Level-4-Unternehmens. Sie haben „viele vielversprechende Ideen“, aber keine öffentliche Beta, keine API (API) und keine Preisseite.
Dies ist die Gefahrenzone der neuen KI-Wirtschaft. Level-3-Unternehmen erzielen Bewertungen basierend auf „Vibes“ — dem Pedigree der Gründer und dem Reiz ihrer Philosophie — statt auf Ausführung. Investoren wetten darauf, dass dieser „menschzentrierte“ Ansatz ein neues Produktivitätsparadigma freisetzen wird, aber ohne ein ausgeliefertes Produkt bleibt Humans& eine Schrödingers Katze der Bewertung: zugleich Milliarden wert und nichts, abhängig davon, was letztlich ausgeliefert wird.
Der Übergang von Level 3 zu Level 4 ist der Punkt, an dem Gummi auf die Straße trifft, und hier sehen wir den schärfsten Kontrast zwischen Erfolg und Turbulenzen.
World Labs: Der Gewinner der räumlichen Intelligenz
World Labs, geleitet von der KI-Pionierin Fei-Fei Li, hat sich fest auf Level 4 positioniert. In nur 18 Monaten hat das Unternehmen den Übergang von einem Hochkonzept-Forschungslabor hin zum Ausliefern von „Marble“ geschafft, einem kommerziellen Weltmodell (world model), das navigierbare 3D-Umgebungen generiert. Durch die Ausrichtung auf spezifische Verticals wie Gaming und visuelle Effekte hat World Labs seine These zur räumlichen Intelligenz mit tatsächlichem Umsatz (revenue) validiert.
Ihr hybrides Preismodell, das Abonnements mit verbrauchsabhängigen Gebühren kombiniert, demonstriert eine Reife, nach der sich Investoren sehnen. Sie forschen nicht nur an „Large World Models“; sie verkaufen die Infrastruktur für die nächste Generation digitaler Interaktion. Diese Umsetzung hat ihre Bewertung in Richtung 5 Milliarden Dollar gedrückt, eine Zahl, die durch greifbare Marktadoption und nicht nur durch Versprechen gestützt wird.
Thinking Machines Lab: Die Risiken der Skalierung
Im Gegensatz dazu veranschaulicht Thinking Machines Lab die Volatilität von Level 4. Gegründet von Mira Murati, schoss das Labor mit einer Bewertung von 12 Milliarden Dollar und der Einführung von „Tinker“, einer API zum Fine-Tuning von Open-Source-Modellen, auf die Bühne. Auf dem Papier sind sie eine kommerzielle Macht.
Die interne Realität erzählt jedoch eine andere Geschichte. Die jüngste Entlassung des Mitbegründers und CTO Barret Zoph, gefolgt vom Weggang weiterer Schlüsselmanager, hebt die Reibungen hervor, die auftreten, wenn ein Forschungsteam gezwungen ist, ein Produktunternehmen zu werden. Ein Unternehmen zu skalieren erfordert andere Muskeln als ein Modell zu trainieren. Der Kampf von Thinking Machines Lab deutet darauf hin, dass Level 4 zu erreichen nicht nur bedeutet, Code auszuliefern — es bedeutet, eine Kultur aufzubauen, die dem unablässigen Druck durch Kundenanforderungen und Umsatzziele standhalten kann.
Das Entstehen dieser Fünf-Stufen-Skala offenbart die grundlegende Verwirrung, die die KI-Branche 2026 geplagt. Kapital ist so reichlich vorhanden, dass es den natürlichen Lebenszyklus von Startups verzerrt hat. In einem traditionellen Markt müsste ein Unternehmen wie Humans& Product-Market-Fit (product-market fit) nachweisen, bevor es eine halbe Milliarde Dollar aufbringt. Heute können sie sich in der konzeptionellen Sicherheit von Level 3 aufhalten, weil das Kapital es ihnen erlaubt.
Für Unternehmenskunden und Ökosystempartner ist diese Klassifikation entscheidend. Sich auf ein Level-1-Labor für kritische Infrastruktur zu verlassen, ist ein törichtes Unterfangen; sie könnten im Namen der Sicherheit jederzeit umschwenken oder den Zugang schließen. Andererseits riskiert man, ein Level-3-Labor als „Vaporware“ abzutun und dabei die nächste Paradigmenverschiebung im Schnittstellendesign zu verpassen.
Wenn wir auf den Rest des Jahres blicken, wird der Druck auf die Labore wachsen, eine Spur zu wählen. Die „hybride“ Existenz wird zunehmend unhaltbar. Investoren werden schließlich wissen wollen, ob sie eine Universität oder eine Fabrik finanzieren. Bis dahin bleibt das Business of AI (Business of AI) ein komplexes Spiel der Signale, bei dem die größte Frage nicht ist, wie viel Geld man macht, sondern ob es einem überhaupt wichtig ist, Geld zu verdienen.