
在人工智慧領域發生的一次劇變中,圖靈獎得主且被稱為「AI 教父」之一的 Yann LeCun 已與 Meta 終止合作。此一離開標誌著他在過去十年領導 Fundamental AI Research(FAIR)實驗室、引導這家社群媒體巨頭科學雄心的時代結束。這次離職不僅是人事變動,更是對業界單一迷戀大型語言模型的強烈意識形態抗議;他現在著名地將該技術形容為通往真正機器智慧的「出口匝道」。
LeCun 的辭職發生在 Meta 因爭議性釋出的 Llama 4 與公司激進轉向以產品為中心的 生成式 AI(Generative AI) 而引發內部動盪的報導期間。他已宣布成立新創企業 Advanced Machine Intelligence (AMI) Labs,該公司將完全繞過生成式文字模型,轉而專注於「世界模型(World Models)」——設計來從物理環境而非網路文本學習的系統。
多年來,LeCun 一直公開批評那種認為僅僅擴大自回歸大型語言模型(如 GPT-4 或 Llama)就能導致通用人工智慧(Artificial General Intelligence,AGI)的信念。他的離去將這場辯論具體化。LeCun 主張,大型語言模型根本受限,因為它們只是操控語言,而不理解語言所描述的底層現實。
「大型語言模型一個接一個地生成詞元,但它們不理解世界,」LeCun 在一次闡述他決定的近期訪談中表示。「它們缺乏常識與因果關係。它們只是一堆統計相關性的堆疊。」
他經常使用「貓的論證」來說明這個侷限性:一隻家貓對物理世界——重力、物體恆常性、動量——的理解,遠勝於最大的模型,儘管牠的神經連結比模型少得多。雖然大型語言模型可以寫出一首關於杯子掉落的詩,但在沒有數以千計類似文本描述的情況下,它無法憑直覺預測把杯子從桌上推下會有何物理後果。
下表概述了驅動 LeCun 與當前業界標準分歧的基本架構差異:
| Feature | Large Language Models (LLMs) | World Models(World Models) (JEPA/AMI) |
|---|---|---|
| Core Mechanism | Autoregressive Next-Token Prediction | Joint Embedding Predictive Architecture |
| Training Data | Text and 2D Images (Internet Data) | Video, Spatial Data, Sensor Inputs |
| Reasoning Type | Probabilistic/Statistical Correlation | Causal Inference and Physical Simulation |
| Memory | Context Window (Limited Token Count) | Persistent State Memory |
| Goal | Generate Plausible Text/Image | Predict Future States of Reality |
導致 LeCun 離開的摩擦並非純學術性的。接近 Meta 的消息來源指出,隨著公司加倍下注於「LLM 戰爭」,LeCun 與執行長 Mark Zuckerberg 之間的關係日益緊張。
據稱,轉捩點出現在 Llama 4 的開發與釋出。2025 年底有報導指出,該模型的基準測試結果被「操縱」以維持與 OpenAI 和 Google 等對手的競爭力。作為科學嚴謹與開放研究的堅定倡導者,LeCun 被指認為發現這種商業壓力與 FAIR 的使命不相容。
此外,Meta 的重組將這位 65 歲的科學家置於由 Scale AI 年輕創辦人 Alexandr Wang 指揮的新產品導向「Superintelligence」部門之下。Wang 的任命,連同優先發展商業化生成式產品而非長期探索性研究的命令,向 LeCun 顯示他對 AI 的願景已不再是公司的優先事項。
「Mark 極為不悅,並基本上將整個 GenAI 組織邊緣化,」LeCun 在談及內部後果時表示,並指出公司已經「完全被 LLM 思想佔據」。
LeCun 並未退休。他已立即啟動 Advanced Machine Intelligence (AMI) Labs,這家新創公司在早期洽談中估值約為 35 億美元。該公司正積極招募認同通往 AGI 路徑在於聯合嵌入預測架構(Joint Embedding Predictive Architectures,JEPA)願景的研究人員。
有別於嘗試重建每個像素或字詞(這是一個計算代價高且易生成幻覺的過程)的生成式 AI,JEPA 模型預測世界的抽象表示。它們會過濾出不可預測的噪音(例如樹葉的晃動),聚焦於具結果性的重要事件(例如一輛車向行人移動)。
AMI Labs 已任命 Nabla 的共同創辦人 Alex LeBrun 為執行長。此一人事安排顯示新實驗室的務實重心,並將醫療保健視為世界模型因高可靠性與因果推理而關鍵的主要領域。
AI 產業內的反應呈現兩極化。支持擴展法則的人士認為 LeCun 在打賭一匹會輸的馬,並指出大型語言模型已產生巨大的經濟價值。然而,許多來自機器人與科學社群的人已集體支持他,認同文本預測已達到報酬遞減的地步。
若 LeCun 的判斷正確,當前在生成式 AI 基礎設施上的兆美元投資可能是資源的大規模錯配——一條產生流暢聊天機器人但無法交付可規劃、推理或在物理世界中導航系統的「死胡同」。
當 Creati.ai 繼續監測這場分裂時,有一件事很明確:關於如何構建會思考的機器的共識已經分裂。業界不再齊步前進;它已分裂成兩大陣營,而這位「AI 教父」正領導對他曾使其成名的技術發起反抗。