
這是一項標誌著行業可能正從對大規模模型擴展(scaling)的執迷中轉型的重要舉措,Adaption Labs 宣佈完成由 Emergence Capital 領投的 5,000 萬美元種子輪融資。這家由前 Cohere 高管 Sara Hooker 和 Sudip Roy 創立的初創公司,帶著一個極具挑釁性的論點從隱身模式中走出來:人工智能的未來不在於更大的靜態模型,而在於能夠「邊運行邊學習」的更小、更動態的系統。
這一融資里程碑代表了 2026 年規模最大的種子輪融資之一,突顯了投資者對架構突破的巨大興趣,這些突破有望解決目前困擾企業 AI 部署的效率和延遲瓶頸。憑藉這筆資金,Adaption Labs 旨在將其專有的「無梯度」(gradient-free)學習技術商業化,該技術允許 AI 智能體實時適應新信息並糾正錯誤,而無需經過計算昂貴的重新訓練過程。
在過去的十年中,AI 研究中的主導學說——通常被稱為「擴展定律」(scaling laws)——非常簡單:更多的數據和更多的計算等於更好的性能。這種方法誕生了生成式 AI 革命,生產出了如 GPT-4 和 Claude 之類的模型。然而,Adaption Labs 的執行長 Sara Hooker 認為,這一軌跡正在遭遇邊際收益遞減的瓶頸。
「多年來,我們一直在優化訓練階段,構建大規模的凍結產物,這些產物在部署的那一刻起就停止了學習,」Hooker 在宣佈融資後的新聞發佈會上表示,「真正的智能不是靜態的,而是自適應的。每當事實數據發生變化或發現錯誤時,就從頭開始重新訓練模型的現行範式,在經濟上是不可持續的,在科學上也是不夠優雅的。」
Hooker 是此前任職於 Google Brain 和 Cohere 的著名研究員,最著名的作品是關於「硬件彩票」(The Hardware Lottery)的研究,該概念詳細描述了硬件限制如何隨意地塑造了 AI 研究的方向。她轉向 Adaptive AI,表明她相信行業對重度反向傳播訓練運行的依賴正在成為一種負擔,而非資產。
推動 Adaption Labs 的核心創新是放棄了傳統的部署後適應所需的基於梯度的學習(gradient-based learning)方法(如反向傳播)。在標準 LLM 中,更新模型需要計算數十億個參數的梯度——這是一個緩慢、高能耗的過程,需要大規模的 GPU 集群。
Adaption Labs 創建的「Adaptive AI」模型利用了 gradient-free learning 技術。雖然該公司對確切的算法細節保密,但該方法可能利用了進化策略或零階優化方法,使模型能夠根據環境反饋調整其行為,而無需進行完整的參數更新。
聯合創始人兼技術長 Sudip Roy 解釋了其實際意義:「想像一個出錯的 AI 客戶服務智能體。在當前的世界中,你必須記錄該錯誤,等待下個月的下一次微調運行,並希望更新能修復它。我們的模型能立即從該交互中學習。如果你告訴它『那是錯誤的,請改用此政策』,它會針對該特定上下文實時調整其權重,且計算開銷微乎其微。」
來自 Emergence Capital 的 5,000 萬美元投資是對這一架構轉型的強力信任投票。Emergence 以早期投資 Salesforce 和 Zoom 等標誌性 SaaS 平台而聞名,現在似乎正在押注 AI 的下一層價值將由效率和自適應能力定義,而非純粹的推理能力。
這筆資金將主要用於:
為了理解 Adaption Labs 正在解決的問題的重要性,將大型語言模型(LLM)的現狀與自適應 AI 的願景進行對比會很有幫助。行業目前正飽受「凍結模型綜合症」的困擾,價值數十億美元的模型在訓練結束後的短短幾天內就會過時。
靜態 LLM 與自適應 AI 架構的比較
| 功能特性 | 靜態 LLM(當前標準) | 自適應 AI (Adaption Labs) |
|---|---|---|
| 學習狀態 | 訓練後凍結 | 持續、實時學習 |
| 更新機制 | 重新訓練或微調(基於梯度) | 上下文自適應(無梯度) |
| 延遲 | 高(需要離線處理) | 低(在推理期間發生) |
| 計算成本 | 極高(需要 GPU 集群) | 極低(可在邊緣設備/CPU 運行) |
| 錯誤糾正 | 持續存在直至下次版本更新 | 收到反饋後立即糾正 |
| 數據隱私 | 數據通常發回中央服務器 | 本地自適應保持數據隱私 |
創始團隊的資歷是估值的一個重要因素。Sara Hooker 曾擔任 Cohere 的研究副總裁,領導「Cohere for AI」研究實驗室,發表了多篇關於模型剪枝和效率的有影響力的論文。她的學術背景使她在挑戰擴展正統學說方面具有獨特的公信力。
技術長 Sudip Roy 則在系統工程和推理優化方面帶來了互補的專業知識。Roy 曾擔任 Cohere 的高級總監和 Google 的研究員,在為數百萬用戶提供大型模型的實際困難方面擁有深厚的經驗。他的長期關注點一直是效率與性能的交叉領域,這使他成為設計旨在精簡運行的系統的理想架構師。
對於企業客戶來說,Adaption Labs 的承諾不僅是學術性的,更是財務性的。維護大規模 AI 應用的成本正在飆升,這主要是由推理成本和對持續微調的需求驅動的。
如果 Adaption Labs 取得成功,公司可以部署更小、更便宜的基礎模型,讓它們「成長」到各自的角色中。例如,一個法律 AI 可以從通用知識開始,經過高級合夥人數週的糾正,演變成一位高度專業的專家,而無需進行任何一次消耗 GPU 的訓練運行。這種「測試時訓練」(test-time training)能力有效地將智能的成本從提供商(訓練大規模模型)轉移到用戶的特定語境中,大幅降低了定製 AI 智能體的准入門檻。
雖然 5,000 萬美元的種子輪融資提供了充足的資金儲備,但未來的技術挑戰依然巨大。從歷史上看,無梯度方法在複雜任務中很難達到基於梯度的更新那樣的精確度。證明自適應層能夠保持穩定性——確保模型不會「學到」錯誤的東西或遭受災難性遺忘——將是該公司在未來一年的主要障礙。
然而,這個時機極具先見之明。隨著行業面臨潛在的電力短缺和下一代訓練運行的天價成本,敘事正從「越大越好」轉向「越精越省」。Adaption Labs 正致力於置身於這一修正浪潮的最前沿。
「我們正在為一個 AI 不再是龐然大物,而是軟件棧中活生生的、呼吸著的一部分的世界而構建,」Hooker 總結道,「靜態模型的時代已經結束了。」