
大規模なモデルスケーリングへの業界の執着からの脱却を示唆する決定的な動きとして、Adaption LabsはEmergence Capitalが主導する5,000万ドルのシード資金調達ラウンドを発表しました。元Cohereの幹部であるSara HookerとSudip Royによって設立されたこのスタートアップは、ステルス状態から脱し、「人工知能の未来はより大きな静的モデルではなく、『その場(on the fly)』で学習可能な、より小規模で動的なシステムにある」という刺激的なテーゼを掲げています。
この資金調達の節目は、2026年の最大規模のシードラウンドの一つであり、現在エンタープライズAIの導入を悩ませている効率性とレイテンシのボトルネックを解決すると期待されるアーキテクチャの画期的進歩に対する投資家の多大な意欲を浮き彫りにしています。この資金により、Adaption Labsは、計算コストのかかる再学習プロセスなしに、AIエージェントが新しい情報に適応し、リアルタイムでエラーを修正することを可能にする独自の「勾配フリー(gradient-free)」学習技術の商用化を目指しています。
過去10年間、AI研究における支配的な教義(しばしば「スケーリング則」と呼ばれる)は単純でした。つまり、より多くのデータとより多くの計算が、より優れたパフォーマンスに等しいというものです。このアプローチは生成AI革命を生み出し、GPT-4やClaudeのようなモデルを輩出しました。しかし、Adaption LabsのCEOである**Sara Hooker**は、この軌道が収穫逓減の壁に突き当たっていると主張しています。
「私たちは長年、トレーニングフェーズの最適化に時間を費やし、デプロイされた瞬間に学習を停止する巨大な凍結されたアーティファクトを構築してきました」と、Hookerは発表後の記者会見で述べました。「真の知性は静的ではありません。適応するものです。事実データが変更されたりエラーが発見されたりするたびに、モデルを一から再学習するという現在のパラダイムは、経済的に持続不可能であり、科学的に洗練されていません。」
以前Google BrainやCohereに在籍していた著名な研究者であるHookerは、ハードウェアの制約がいかに恣意的にAI研究の方向性を形作るかを詳しく述べた概念である「The Hardware Lottery(ハードウェアの宝くじ)」に関する研究で最もよく知られています。彼女の**Adaptive AI**への転換は、業界がバックプロパゲーション(誤差逆伝播法)を多用するトレーニングに依存していることが、資産ではなく負債になりつつあるという信念を示唆しています。
Adaption Labsを牽引する核心的なイノベーションは、デプロイ後の適応のための従来の**勾配ベースの学習(gradient-based learning)**手法(バックプロパゲーションなど)からの脱却です。標準的なLLMでは、モデルの更新には数十億のパラメータにわたる勾配の計算が必要であり、これは大規模なGPUクラスターを必要とする、低速でエネルギー集約的なプロセスです。
Adaption Labsは、**gradient-free learning**技術を活用した「Adaptive AI」モデルを作成します。同社は正確なアルゴリズムの詳細を非公開にしていますが、このアプローチは進化戦略やゼロ次最適化手法を活用している可能性が高く、これによりモデルは完全なパラメータ更新を必要とせずに、環境からのフィードバックに基づいて動作を調整できます。
共同創設者兼CTOのSudip Royは、その実用的な意味を次のように説明しました。「ミスを犯すAIカスタマーサポートエージェントを想像してみてください。現在の世界では、そのエラーを記録し、来月の次のファインチューニングの実行を待ち、更新によって修正されることを願う必要があります。私たちのモデルはその対話から即座に学習します。もし『それは間違いだ、代わりにこのポリシーを使ってくれ』と伝えれば、ごくわずかな計算オーバーヘッドで、その特定のコンテキストに合わせて、その場で重みを適応させます。」
Emergence Capitalによる5,000万ドルの投資は、このアーキテクチャの転換に対する強力な信頼の証です。SalesforceやZoomのような象徴的なSaaSプラットフォームへの早期の賭けで知られるEmergenceは、AIバリューの次の層は、生の推論能力ではなく効率性と適応性によって定義されると考えているようです。
この資金は主に以下の目的で使用されます:
Adaption Labsが解決しようとしている問題の大きさを理解するために、大規模言語モデル(LLM)の現状とAdaptive AIのビジョンを対比させることが役立ちます。業界は現在、トレーニング終了からわずか数日で10億ドル規模のモデルが古くなってしまう「凍結モデル症候群」に苦しんでいます。
静的LLMとAdaptive AIアーキテクチャの比較
| 特徴 | 静的LLM(現在の標準) | Adaptive AI(Adaption Labs) |
|---|---|---|
| 学習状態 | トレーニング後に凍結 | 継続的なリアルタイム学習 |
| 更新メカニズム | 再学習またはファインチューニング(勾配ベース) | コンテキスト内適応(勾配フリー) |
| レイテンシ | 高い(オフライン処理が必要) | 低い(推論中に発生) |
| 計算コスト | 極めて高い(GPUクラスターが必要) | 最小限(エッジ/CPUで実行可能) |
| エラー修正 | 次のバージョン更新まで持続 | フィードバック時に即座に修正 |
| データプライバシー | データが中央サーバーに送り返されることが多い | ローカルでの適応によりデータのプライバシーを維持 |
創設チームの経歴は、評価額における重要な要因です。Sara HookerはCohereの研究担当副社長を務め、「Cohere for AI」研究ラボを率いて、モデルのプルーニング(枝刈り)と効率性に関する影響力のある論文を発表しました。彼女のアカデミックな背景は、スケーリング至上主義に挑戦するための比類なき信頼性を彼女に与えています。
CTOのSudip Royは、システムエンジニアリングと推論の最適化における補完的な専門知識をもたらします。CohereのシニアディレクターおよびGoogleの研究者を務めたRoyは、大規模なモデルを数百万人ものユーザーに提供する際の実務上の困難について深い経験を持っています。彼の焦点は長年、効率性とパフォーマンスの交差点にあり、無駄のない実行を目指して設計されたシステムの理想的な設計者となっています。
企業クライアントにとって、Adaption Labsの約束は単に学術的なものではなく、経済的なものです。大規模なAIアプリケーションを維持するコストは、推論コストと継続的なファインチューニングの必要性によって急騰しています。
Adaption Labsが成功すれば、企業は役割に合わせて「成長する」より小規模で安価なベースモデルを導入できるようになります。例えば、法務AIは一般的な知識から始まり、シニアパートナーによる数週間の修正を経て、GPUを多用するトレーニングを一度も行うことなく、高度に専門化されたエキスパートへと進化することができます。この「テストタイムトレーニング(test-time training)」機能は、知性のコストをプロバイダー(巨大なモデルのトレーニング)からユーザーの特定のコンテキストへと効果的に転移させ、特注のAIエージェントへの参入障壁を劇的に下げます。
5,000万ドルのシードラウンドは十分な活動資金を提供しますが、今後の技術的な課題は些細なものではありません。勾配フリーの手法は歴史的に、複雑なタスクにおいて勾配ベースの更新の精度に匹敵することに苦労してきました。適応層が安定性を維持できること、つまりモデルが間違ったことを「学習」したり、致命的な忘却(catastrophic forgetting)に陥ったりしないことを証明することが、来年の同社の主要なハードルとなるでしょう。
しかし、タイミングは先見の明があります。業界が潜在的な電力不足と次世代のトレーニング実行にかかる法外なコストに直面する中、ナラティブは「大きいほど良い」から「賢いほど安い」へと移り変わっています。Adaption Labsはこの修正の最前線に位置しています。
「私たちは、AIがモノリス(一枚岩)ではなく、ソフトウェアスタックの生きた、息づく一部である世界を目指して構築しています」とHookerは締めくくりました。「静的モデルの時代は終わりました。」