AI News

Das statische Paradigma durchbrechen: Adaption Labs sichert sich 50 Mio. USD für den Bau von KI, die in Echtzeit lernt

In einem entscheidenden Schritt, der eine potenzielle Abkehr von der Besessenheit der Branche mit massiver Modellskalierung signalisiert, hat Adaption Labs eine Seed-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar unter der Leitung von Emergence Capital bekannt gegeben. Das Startup, das von den ehemaligen Cohere-Führungskräften Sara Hooker und Sudip Roy gegründet wurde, tritt mit einer provokanten These aus dem Stealth-Modus hervor: Die Zukunft der künstlichen Intelligenz liegt nicht in größeren statischen Modellen, sondern in kleineren, dynamischen Systemen, die in der Lage sind, „on the fly“ zu lernen.

Dieser Finanzierungsmeilenstein stellt eine der größten Seed-Runden des Jahres 2026 dar und unterstreicht das erhebliche Interesse der Investoren an architektonischen Durchbrüchen, die versprechen, die Effizienz- und Latenzengpässe zu lösen, die derzeit den Einsatz von KI in Unternehmen behindern. Mit diesem Kapital möchte Adaption Labs seine proprietäre „gradientenfreie“ Lerntechnologie kommerzialisieren, die es KI-Agenten ermöglicht, sich an neue Informationen anzupassen und Fehler in Echtzeit zu korrigieren, ohne den rechenintensiven Prozess des Retrainings durchlaufen zu müssen.

Das Ende der „Scaling-Pilled“-Ära?

In den letzten zehn Jahren war die vorherrschende Doktrin in der KI-Forschung – oft als „Scaling Laws“ bezeichnet – simpel: Mehr Daten und mehr Rechenleistung führen zu besserer Leistung. Dieser Ansatz hat die generative KI-Revolution hervorgebracht und Modelle wie GPT-4 und Claude erzeugt. Jedoch argumentiert Sara Hooker, CEO von Adaption Labs, dass dieser Kurs auf eine Wand sinkender Grenzerträge stößt.

„Wir haben Jahre damit verbracht, die Trainingsphase zu optimieren und massive eingefrorene Artefakte zu bauen, die in dem Moment aufhören zu lernen, in dem sie eingesetzt werden“, erklärte Hooker in einer Presseerklärung nach der Ankündigung. „Echte Intelligenz ist nicht statisch. Sie passt sich an. Das aktuelle Paradigma, ein Modell jedes Mal von Grund auf neu zu trainieren, wenn sich Fakten ändern oder ein Fehler entdeckt wird, ist wirtschaftlich nicht tragbar und wissenschaftlich unelegant.“

Hooker, eine renommierte Forscherin, die zuvor bei Google Brain und Cohere tätig war, ist vor allem für ihre Arbeit an „The Hardware Lottery“ bekannt, einem Konzept, das detailliert beschreibt, wie Hardware-Einschränkungen willkürlich die Richtung der KI-Forschung prägen. Ihr Wechsel zu Adaptive AI deutet auf die Überzeugung hin, dass die Abhängigkeit der Branche von Backpropagation-lastigen Trainingsläufen eher zu einer Belastung als zu einem Vorteil wird.

Technologie: Gradientenfreies Lernen erklärt

Die Kerninnovation von Adaption Labs ist eine Abkehr von traditionellen gradientenbasierten Lernmethoden (wie Backpropagation) für die Anpassung nach dem Deployment. Bei Standard-LLMs erfordert die Aktualisierung des Modells die Berechnung von Gradienten über Milliarden von Parametern hinweg – ein langsamer, energieintensiver Prozess, der massive GPU-Cluster erfordert.

Adaption Labs entwickelt „Adaptive AI“-Modelle, die Techniken des gradientenfreien Lernens nutzen. Während das Unternehmen die genauen algorithmischen Details unter Verschluss hält, nutzt der Ansatz wahrscheinlich evolutionäre Strategien oder Optimierungsmethoden nullter Ordnung, die es einem Modell ermöglichen, sein Verhalten basierend auf Umweltfeedback anzupassen, ohne vollständige Parameter-Updates zu benötigen.

Sudip Roy, Mitbegründer und CTO, erklärte die praktischen Auswirkungen: „Stellen Sie sich einen KI-Kundensupport-Agenten vor, der einen Fehler macht. In der aktuellen Welt müssen Sie diesen Fehler protokollieren, auf den nächsten Fine-Tuning-Lauf im nächsten Monat warten und hoffen, dass das Update ihn behebt. Unsere Modelle lernen sofort aus dieser Interaktion. Wenn man ihm sagt: ‚Das ist falsch, verwende stattdessen diese Richtlinie‘, passt es seine Gewichte spontan für diesen spezifischen Kontext an, und das mit vernachlässigbarem Rechenaufwand.“

Strategische Unterstützung und Marktanpassung

Die 50-Millionen-Dollar-Investition von Emergence Capital ist ein starker Vertrauensbeweis in diesen architektonischen Schwenk. Emergence, bekannt für frühe Wetten auf ikonische SaaS-Plattformen wie Salesforce und Zoom, scheint darauf zu setzen, dass die nächste Ebene der KI-Wertschöpfung eher durch Effizienz und Anpassungsfähigkeit als durch reine Rechenleistung definiert wird.

Die Mittel werden primär verwendet für:

  1. Ausbau des Forschungsteams: Einstellung von Spezialisten für evolutionäre Algorithmen, Reinforcement Learning und effiziente Inferenz.
  2. Entwicklung der „Adaption Engine“: Eine entwicklerorientierte Plattform, die es Unternehmen ermöglicht, bestehende Foundation-Modelle mit adaptiven Schichten zu erweitern.
  3. Hardware-Optimierung: Sicherstellung, dass diese leichtgewichtigen Lernprozesse auf Edge-Geräten und Standard-Consumer-Hardware laufen können, wodurch die Notwendigkeit von H100-Clustern für jedes kleinere Update entfällt.

Das Problem des „eingefrorenen Modells“ vs. adaptive Lösungen

Um das Ausmaß des Problems zu verstehen, das Adaption Labs löst, ist es hilfreich, den aktuellen Stand von Large Language Models (LLMs) mit der Vision von Adaptive AI zu vergleichen. Die Branche kämpft derzeit mit dem „Frozen Model Syndrome“, bei dem Milliarden-Dollar-Modelle bereits wenige Tage nach Abschluss des Trainings veraltet sind.

Vergleich von statischen LLMs und Adaptive AI Architekturen

Merkmal Statische LLMs (Aktueller Standard) Adaptive AI (Adaption Labs)
Lernzustand Nach dem Training eingefroren Kontinuierliches Echtzeit-Lernen
Update-Mechanismus Retraining oder Fine-tuning (Gradienten-basiert) In-Kontext-Adaption (Gradienten-frei)
Latenz Hoch (erfordert Offline-Verarbeitung) Niedrig (erfolgt während der Inferenz)
Rechenkosten Extrem (erfordert GPU-Cluster) Minimal (kann auf Edge/CPU laufen)
Fehlerkorrektur Persistent bis zum nächsten Versionsupdate Sofortige Korrektur bei Feedback
Datenschutz Daten werden oft an zentralen Server gesendet Lokale Adaption hält Daten privat

Gründer mit bewährter Erfolgsbilanz

Der Hintergrund des Gründungsteams ist ein wesentlicher Faktor für die Bewertung. Sara Hooker war VP of Research bei Cohere, wo sie das Forschungslabor „Cohere for AI“ leitete und einflussreiche Arbeiten zu Modell-Pruning und Effizienz veröffentlichte. Ihr akademischer Hintergrund verleiht ihr eine einzigartige Glaubwürdigkeit, um die Skalierungs-Orthodoxie infrage zu stellen.

Sudip Roy, der CTO, bringt komplementäre Expertise in Systemtechnik und Inferenzoptimierung ein. Als ehemaliger Senior Director bei Cohere und Forscher bei Google verfügt Roy über tiefgreifende Erfahrung mit den praktischen Schwierigkeiten, große Modelle Millionen von Nutzern zur Verfügung zu stellen. Sein Fokus liegt seit langem auf der Schnittstelle zwischen Effizienz und Leistung, was ihn zum idealen Architekten für ein System macht, das auf Schlankheit ausgelegt ist.

Auswirkungen für Unternehmen

Für Unternehmenskunden ist das Versprechen von Adaption Labs nicht nur akademisch – es ist finanziell. Die Kosten für die Wartung groß angelegter KI-Anwendungen schießen in die Höhe, was vor allem auf Inferenzkosten und den ständigen Bedarf an Fine-Tuning zurückzuführen ist.

Wenn Adaption Labs Erfolg hat, könnten Unternehmen kleinere, günstigere Basismodelle einsetzen, die in ihre Rollen „hineinwachsen“. Eine Rechts-KI zum Beispiel könnte mit allgemeinem Wissen beginnen und sich über Wochen durch Korrekturen von Senior-Partnern zu einem hochspezialisierten Experten entwickeln, ohne einen einzigen GPU-intensiven Trainingslauf. Diese „Test-Time Training“-Fähigkeit verlagert die Kosten der Intelligenz effektiv vom Anbieter (Training massiver Modelle) auf den spezifischen Kontext des Nutzers und senkt so die Eintrittsbarriere für maßgeschneiderte KI-Agenten drastisch.

Der Weg in die Zukunft

Obwohl die Seed-Runde über 50 Millionen US-Dollar ein erhebliches Polster bietet, sind die technischen Herausforderungen nicht trivial. Gradientenfreie Methoden hatten historisch gesehen Schwierigkeiten, bei komplexen Aufgaben die Präzision von gradientenbasierten Updates zu erreichen. Zu beweisen, dass eine adaptive Schicht Stabilität bewahren kann – um sicherzustellen, dass das Modell nicht die „falschen“ Dinge lernt oder unter katastrophalem Vergessen leidet – wird im kommenden Jahr die größte Hürde des Unternehmens sein.

Das Timing ist jedoch vorausschauend. Da die Branche mit potenziellen Stromengpässen und den exorbitanten Kosten für Trainingsläufe der nächsten Generation konfrontiert ist, verschiebt sich das Narrativ von „größer ist besser“ zu „intelligenter ist billiger“. Adaption Labs positioniert sich an der Spitze dieser Korrektur.

„Wir bauen für eine Welt, in der KI kein Monolith ist, sondern ein lebendiger, atmender Teil des Software-Stacks“, schloss Hooker. „Die Ära des statischen Modells ist vorbei.“

Ausgewählt