AI News

微軟透過自有基礎模型追求 AI 自給自足

微軟(Microsoft)公佈了實現「真正 AI 自給自足」的積極策略,這一決定性的舉措預示著人工智能(Artificial Intelligence)格局的重塑。這一轉向的核心在於開發其自有基礎模型(Foundation Models) MAI-1,以及一項旨在減少對 OpenAI 長期依賴的更廣泛計劃。在微軟 AI 執行長 Mustafa Suleyman 的領導下,這家科技巨頭正從合作夥伴技術的主要分銷商轉型為前沿級別 AI 系統的自主創造者。

MAI-1 的崛起:獨立宣言

微軟策略轉向的核心是 MAI-1 基礎模型,這是一款旨在與業界最先進系統競爭的自有大型語言模型(Large Language Model, LLM)。報告指出,MAI-1 是一個擁有約 5000 億參數的巨型模型,使其成為生成式 AI(Generative AI)領域的重量級競爭者。

MAI-1 的開發代表了一項巨大的資本和基礎設施投入。該模型已在由 15,000 個 Nvidia H100 GPU 組成的專用集群上進行訓練,其計算資源足以與全球頂尖 AI 研究實驗室的訓練環境相媲美。這項基礎設施投資突顯了微軟控制其 AI 堆棧整個垂直領域(從晶片到軟件)的意圖。

在領導 Inflection AI 並共同創立 DeepMind 後加入微軟的 Mustafa Suleyman 一直對這一新方向直言不諱。在最近的聲明中,他強調雖然與 OpenAI 的合作關係仍是微軟業務的基石,但公司必須擁有自己的「前沿」能力以確保未來。在特定的 Copilot 文本使用案例中引入 MAI-1-preview,標誌著這種內部能力的首次公開驗證,證明微軟有能力構建和部署足以與外部合作夥伴媲美的模型。

策略性避險:至 2032 年的 OpenAI 合作夥伴關係

儘管在推動內部主權,微軟仍精心構建了與 OpenAI 的關係,以確保長期穩定。兩家公司最近鞏固了聯盟,協議延長至 2032 年

這種雙軌策略——在建立內部能力的同時保持特權外部合作夥伴關係——使微軟能夠對沖市場波動和技術瓶頸。續簽的協議授予微軟對 OpenAI 模型的知識產權,包括未來可能實現「通用人工智能」(Artificial General Intelligence, AGI)的系統。然而,MAI-1 的存在給予了微軟以前所欠缺的議價籌碼。它不再僅僅是 GPT-4 的「套殼(wrapper)」;它現在是一個建設者,一旦合作關係發生變動或 OpenAI 的路線圖與微軟的企業需求分歧,它就擁有了可行的替代方案。

面向企業的專業級 AGI

微軟自給自足策略的實際應用高度聚焦於企業市場。Suleyman 闡述了「專業級 AGI」的願景——即能夠以高可靠性執行複雜、多步驟工作流的 AI 代理(AI agents)。

與優先考慮對話流暢性的消費級聊天機器人不同,這些企業模型專為以下目標而設計:

  • 準確性與事實性:降低關鍵業務數據的幻覺(hallucination)率。
  • 流程自動化:處理金融、法律和編碼領域的端到端任務。
  • 數據隱私:確保敏感的企業數據保留在微軟控制的基礎設施內,而非通過第三方模型 API 傳輸。

Suleyman 大膽預測,AI 可以在未來 12 到 18 個月內實現白領認知任務很大一部分的自動化,這使得 MAI-1 處於這場變革的核心。通過將自有模型整合到 Microsoft 365 生態系統中,公司旨在提供一個無縫且具成本效益的替代方案,不再為每個查詢都純粹依賴 GPT-4,從而為其 Azure 客戶優化成本性能比。

對比分析:MAI-1 vs. 市場

要理解 MAI-1 在當前生態系統中的位置,必須將其與自有及開源替代方案進行比較。下表概述了微軟新的內部競爭者與既有市場領導者之間的主要區別。

表 1:基礎模型(Foundation Models)的競爭格局

模型名稱 開發者 估計參數 主要使用場景 策略角色
MAI-1 Microsoft 約 5000 億 企業集成、Copilot 自給自足資產:減少外部依賴並降低推理成本。
GPT-4o OpenAI 1.8 萬億(估) 通用用途、推理 前沿合作夥伴:目前驅動高端 Azure AI 服務的金本位(gold standard)。
Claude 3.5 Anthropic 未知 編碼、長上下文 市場替代方案:在 Azure 上提供以供客戶選擇。
Llama 3 Meta 700 億 - 4000 億+ 開放權重、研究 商品化層:專業化、低成本任務。

基礎設施優勢

微軟轉向自給自足的能力得益於其對 Azure 基礎設施的巨額投資。除了 Nvidia H100 集群外,公司還在積極開發自己的晶片,例如 Maia 100 AI 加速器

這種垂直整合對於 AI 的長期經濟效益至關重要。目前,由於第三方授權和硬件成本,運行像 GPT-4 這樣的模型極其昂貴。透過在自己的基礎設施上訓練 MAI-1,並可能在自己的晶片上運行推理,微軟可以顯著降低每個 Token 的成本。隨著採納規模擴大到數百萬每日用戶,這種利潤率的改善對於維持 GitHub Copilot 和 Microsoft 365 Copilot 等產品的盈利能力至關重要。

結論

微軟對 MAI-1 的開發不僅僅是一次產品發佈,更是科技界的一場地緣政治博弈。透過宣告「AI 自給自足」,微軟正在釋放信號:雖然它重視合作夥伴,但拒絕受制於人。隨著 MAI-1 模型日趨成熟並更深入地整合到 Azure 和 Copilot 生態系統中,業界將密切關注微軟能否成功從全球最大的 AI 投資者轉型為最強大的 AI 創造者。

精選