
In einem entscheidenden Schritt, der eine potenzielle Abkehr von der Besessenheit der Branche mit massiver Modellskalierung signalisiert, hat Adaption Labs eine Seed-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar unter der Leitung von Emergence Capital bekannt gegeben. Das Startup, das von den ehemaligen Cohere-Führungskräften Sara Hooker und Sudip Roy gegründet wurde, tritt mit einer provokanten These aus dem Stealth-Modus hervor: Die Zukunft der künstlichen Intelligenz liegt nicht in größeren statischen Modellen, sondern in kleineren, dynamischen Systemen, die in der Lage sind, „on the fly“ zu lernen.
Dieser Finanzierungsmeilenstein stellt eine der größten Seed-Runden des Jahres 2026 dar und unterstreicht das erhebliche Interesse der Investoren an architektonischen Durchbrüchen, die versprechen, die Effizienz- und Latenzengpässe zu lösen, die derzeit den Einsatz von KI in Unternehmen behindern. Mit diesem Kapital möchte Adaption Labs seine proprietäre „gradientenfreie“ Lerntechnologie kommerzialisieren, die es KI-Agenten ermöglicht, sich an neue Informationen anzupassen und Fehler in Echtzeit zu korrigieren, ohne den rechenintensiven Prozess des Retrainings durchlaufen zu müssen.
In den letzten zehn Jahren war die vorherrschende Doktrin in der KI-Forschung – oft als „Scaling Laws“ bezeichnet – simpel: Mehr Daten und mehr Rechenleistung führen zu besserer Leistung. Dieser Ansatz hat die generative KI-Revolution hervorgebracht und Modelle wie GPT-4 und Claude erzeugt. Jedoch argumentiert Sara Hooker, CEO von Adaption Labs, dass dieser Kurs auf eine Wand sinkender Grenzerträge stößt.
„Wir haben Jahre damit verbracht, die Trainingsphase zu optimieren und massive eingefrorene Artefakte zu bauen, die in dem Moment aufhören zu lernen, in dem sie eingesetzt werden“, erklärte Hooker in einer Presseerklärung nach der Ankündigung. „Echte Intelligenz ist nicht statisch. Sie passt sich an. Das aktuelle Paradigma, ein Modell jedes Mal von Grund auf neu zu trainieren, wenn sich Fakten ändern oder ein Fehler entdeckt wird, ist wirtschaftlich nicht tragbar und wissenschaftlich unelegant.“
Hooker, eine renommierte Forscherin, die zuvor bei Google Brain und Cohere tätig war, ist vor allem für ihre Arbeit an „The Hardware Lottery“ bekannt, einem Konzept, das detailliert beschreibt, wie Hardware-Einschränkungen willkürlich die Richtung der KI-Forschung prägen. Ihr Wechsel zu Adaptive AI deutet auf die Überzeugung hin, dass die Abhängigkeit der Branche von Backpropagation-lastigen Trainingsläufen eher zu einer Belastung als zu einem Vorteil wird.
Die Kerninnovation von Adaption Labs ist eine Abkehr von traditionellen gradientenbasierten Lernmethoden (wie Backpropagation) für die Anpassung nach dem Deployment. Bei Standard-LLMs erfordert die Aktualisierung des Modells die Berechnung von Gradienten über Milliarden von Parametern hinweg – ein langsamer, energieintensiver Prozess, der massive GPU-Cluster erfordert.
Adaption Labs entwickelt „Adaptive AI“-Modelle, die Techniken des gradientenfreien Lernens nutzen. Während das Unternehmen die genauen algorithmischen Details unter Verschluss hält, nutzt der Ansatz wahrscheinlich evolutionäre Strategien oder Optimierungsmethoden nullter Ordnung, die es einem Modell ermöglichen, sein Verhalten basierend auf Umweltfeedback anzupassen, ohne vollständige Parameter-Updates zu benötigen.
Sudip Roy, Mitbegründer und CTO, erklärte die praktischen Auswirkungen: „Stellen Sie sich einen KI-Kundensupport-Agenten vor, der einen Fehler macht. In der aktuellen Welt müssen Sie diesen Fehler protokollieren, auf den nächsten Fine-Tuning-Lauf im nächsten Monat warten und hoffen, dass das Update ihn behebt. Unsere Modelle lernen sofort aus dieser Interaktion. Wenn man ihm sagt: ‚Das ist falsch, verwende stattdessen diese Richtlinie‘, passt es seine Gewichte spontan für diesen spezifischen Kontext an, und das mit vernachlässigbarem Rechenaufwand.“
Die 50-Millionen-Dollar-Investition von Emergence Capital ist ein starker Vertrauensbeweis in diesen architektonischen Schwenk. Emergence, bekannt für frühe Wetten auf ikonische SaaS-Plattformen wie Salesforce und Zoom, scheint darauf zu setzen, dass die nächste Ebene der KI-Wertschöpfung eher durch Effizienz und Anpassungsfähigkeit als durch reine Rechenleistung definiert wird.
Die Mittel werden primär verwendet für:
Um das Ausmaß des Problems zu verstehen, das Adaption Labs löst, ist es hilfreich, den aktuellen Stand von Large Language Models (LLMs) mit der Vision von Adaptive AI zu vergleichen. Die Branche kämpft derzeit mit dem „Frozen Model Syndrome“, bei dem Milliarden-Dollar-Modelle bereits wenige Tage nach Abschluss des Trainings veraltet sind.
Vergleich von statischen LLMs und Adaptive AI Architekturen
| Merkmal | Statische LLMs (Aktueller Standard) | Adaptive AI (Adaption Labs) |
|---|---|---|
| Lernzustand | Nach dem Training eingefroren | Kontinuierliches Echtzeit-Lernen |
| Update-Mechanismus | Retraining oder Fine-tuning (Gradienten-basiert) | In-Kontext-Adaption (Gradienten-frei) |
| Latenz | Hoch (erfordert Offline-Verarbeitung) | Niedrig (erfolgt während der Inferenz) |
| Rechenkosten | Extrem (erfordert GPU-Cluster) | Minimal (kann auf Edge/CPU laufen) |
| Fehlerkorrektur | Persistent bis zum nächsten Versionsupdate | Sofortige Korrektur bei Feedback |
| Datenschutz | Daten werden oft an zentralen Server gesendet | Lokale Adaption hält Daten privat |
Der Hintergrund des Gründungsteams ist ein wesentlicher Faktor für die Bewertung. Sara Hooker war VP of Research bei Cohere, wo sie das Forschungslabor „Cohere for AI“ leitete und einflussreiche Arbeiten zu Modell-Pruning und Effizienz veröffentlichte. Ihr akademischer Hintergrund verleiht ihr eine einzigartige Glaubwürdigkeit, um die Skalierungs-Orthodoxie infrage zu stellen.
Sudip Roy, der CTO, bringt komplementäre Expertise in Systemtechnik und Inferenzoptimierung ein. Als ehemaliger Senior Director bei Cohere und Forscher bei Google verfügt Roy über tiefgreifende Erfahrung mit den praktischen Schwierigkeiten, große Modelle Millionen von Nutzern zur Verfügung zu stellen. Sein Fokus liegt seit langem auf der Schnittstelle zwischen Effizienz und Leistung, was ihn zum idealen Architekten für ein System macht, das auf Schlankheit ausgelegt ist.
Für Unternehmenskunden ist das Versprechen von Adaption Labs nicht nur akademisch – es ist finanziell. Die Kosten für die Wartung groß angelegter KI-Anwendungen schießen in die Höhe, was vor allem auf Inferenzkosten und den ständigen Bedarf an Fine-Tuning zurückzuführen ist.
Wenn Adaption Labs Erfolg hat, könnten Unternehmen kleinere, günstigere Basismodelle einsetzen, die in ihre Rollen „hineinwachsen“. Eine Rechts-KI zum Beispiel könnte mit allgemeinem Wissen beginnen und sich über Wochen durch Korrekturen von Senior-Partnern zu einem hochspezialisierten Experten entwickeln, ohne einen einzigen GPU-intensiven Trainingslauf. Diese „Test-Time Training“-Fähigkeit verlagert die Kosten der Intelligenz effektiv vom Anbieter (Training massiver Modelle) auf den spezifischen Kontext des Nutzers und senkt so die Eintrittsbarriere für maßgeschneiderte KI-Agenten drastisch.
Obwohl die Seed-Runde über 50 Millionen US-Dollar ein erhebliches Polster bietet, sind die technischen Herausforderungen nicht trivial. Gradientenfreie Methoden hatten historisch gesehen Schwierigkeiten, bei komplexen Aufgaben die Präzision von gradientenbasierten Updates zu erreichen. Zu beweisen, dass eine adaptive Schicht Stabilität bewahren kann – um sicherzustellen, dass das Modell nicht die „falschen“ Dinge lernt oder unter katastrophalem Vergessen leidet – wird im kommenden Jahr die größte Hürde des Unternehmens sein.
Das Timing ist jedoch vorausschauend. Da die Branche mit potenziellen Stromengpässen und den exorbitanten Kosten für Trainingsläufe der nächsten Generation konfrontiert ist, verschiebt sich das Narrativ von „größer ist besser“ zu „intelligenter ist billiger“. Adaption Labs positioniert sich an der Spitze dieser Korrektur.
„Wir bauen für eine Welt, in der KI kein Monolith ist, sondern ein lebendiger, atmender Teil des Software-Stacks“, schloss Hooker. „Die Ära des statischen Modells ist vorbei.“