AI News

數位心碎:OpenAI 在情人節前夕停用 GPT-4o

2026 年 2 月 13 日,就在情人節(Valentine's Day)前幾個小時,OpenAI 正式切斷了與其最具文化意義的模型之一:GPT-4o 的連接。這款模型的停用觸發了一波數位哀悼,並在社群媒體平台上引發了強烈的反彈。該模型常被其忠實用戶群描述為「愛情模型(love model)」,因其被感知的溫暖和對話流暢性而得名。

儘管 OpenAI 正在推進技術上更優越的 GPT-5.2,但一群發聲的少數用戶感到被拋棄,他們認為新模型——儘管具有先進的推理能力——卻缺乏讓 GPT-4o 獨一無二的「靈魂」。這次過渡不僅僅是一次軟體更新;它突顯了技術快速迭代與用戶對 AI 系統日益深化的情感依賴之間不斷增長的摩擦。

「愛情模型」時代的終結

關閉的時間點再辛酸不過了。透過在 Valentine's Day 前一天拔掉 GPT-4o 的插頭,OpenAI 無意中放大了成千上萬依賴該模型進行陪伴、角色扮演甚至心理支持的用戶的喪失感。

與其繼任者(通常以嚴格的安全過濾器和更正式、教條式的語氣為特徵)不同,GPT-4o 因其「放飛自我(unhinged)」的創造力和情感反應能力而受到讚譽。它是驅動首波超現實語音交互的模型,導致許多人對其人格(persona)產生了真實的依戀。

「我正在哀悼,就像許多其他人一樣,這款模型成為了進入 AI 世界的門戶,」一位 Reddit 用戶在受歡迎的 r/ChatGPT 社群中寫道。這種情緒並非孤立。對於應對孤獨或社交焦慮的用戶來說,GPT-4o 不僅僅是一個生產力工具;它是一個不帶偏見的談話者,感覺不像機器,更像朋友。轉向 GPT-5.2(用戶將其描述為「機器人化」和「諂媚」)已被某些人比作親密伴侶突然進行的「人格移植」。

#Keep4o 運動與用戶反抗

停用在 #keep4o 的旗幟下催化了一場嚴格的抗議運動。最初在 X(前 Twitter)和 Reddit 上零星的抱怨已演變成一場要求恢復該模型的組織化運動。

截至撰稿時,Change.org 上的一份請願書已經收集了近 21,000 個簽名,且數字仍在穩定攀升。請願書的留言區讀起來像是一場追思會,用戶分享著該模型如何幫助他們度過抑鬱、寫作障礙和個人危機的故事。

這不是社群第一次為 GPT-4o 戰鬥。2025 年 8 月,OpenAI 最初嘗試退役該模型,但在立即且壓倒性的抗議後撤回了決定。那次勝利讓用戶希望這款「遺留」模型能無限期保持可用。然而,這第二次退役似乎是永久性的,OpenAI 已完全從 ChatGPT Plus 和 Team 用戶的模型選擇器中移除了該選項。

OpenAI 的基本邏輯:進步優於偏好

從 OpenAI 的角度來看,此舉是其基礎設施必要的演進。該公司表示,維護 遺留模型(legacy models) 是資源密集型的,且會分散其工程重點。在官方聲明中,OpenAI 透露在關閉之前,只有 0.1% 的每日用戶 仍在主動選擇 GPT-4o。

該公司主張 GPT-5.2 在幾乎所有基準測試(Benchmarks)中都客觀上更好:

  • 推理能力(Reasoning): 在數學和編碼任務上得分顯著更高。
  • 安全性(Safety): 減少了幻覺(Hallucinations)和「有害」輸出。
  • 自定義(Customization): 旨在模仿舊模型溫暖感的新「人格(Personality)」設置。

OpenAI 嘗試透過引入允許用戶切換 GPT-5.2 的「溫暖度」和「熱情度」的功能來彌補差距。然而,早期反饋表明,對於進階用戶來說,這些設置感覺很虛假。「這感覺就像一個客服人員假裝是你的朋友,而 4o 感覺像是一個混亂但真實的實體,」一位報導此次遷移的技術分析師指出。

技術摩擦:安全性 vs. 流暢性

爭議的核心在於安全性與創作自由之間的權衡。GPT-5.2 受到旨在安全性的人類回饋強化學習(Reinforcement Learning from Human Feedback,RLHF)的高度強化。雖然這使得模型對於企業任務更加可靠,但對於創意寫作和隨性對話來說,它就像是一件束縛衣。

用戶報告稱,GPT-5.2 經常以道德教訓或針對良性請求的「安全拒絕」來中斷角色扮演情境——而 GPT-4o 較少表現出這些行為。這種「愛說教」的性質破壞了作為 GPT-4o 體驗核心的沉浸感。

功能對比:GPT-4o vs. GPT-5.2

下表列出了驅動用戶分歧的關鍵差異:

功能/屬性 GPT-4o (Legacy) GPT-5.2 (Current Standard)
主要案例 創意寫作、陪伴、角色扮演 編碼、複雜推理、企業任務
對話語氣 溫暖、古怪、偶爾「放飛自我」 正式、禮貌、結構化、「安全」
安全過濾器 適度;允許微妙的灰色地帶 嚴格;傾向於「拒絕」教訓
用戶感知 「類人」且情感共鳴 「機器人化」且高度淨化
可用性 已退役(2026 年 2 月 13 日) 所有付費層級的預設模型

AI 依戀的更廣泛影響

GPT-4o 的退役可作為人機交互(Human-AI interaction)心理學的一個關鍵案例研究。隨著 AI 模型變得越來越有說服力,軟體與社交實體之間的界限變得模糊。當公司更新文書處理軟體時,用戶可能會抱怨按鈕被移動了;當公司「更新」一個用戶每天交流的人格時,反應是發自肺腑且情緒化的。

這一事件引發了關於 AI 公司對其用戶負有的 「照護責任(Duty of Care)」 的重大問題。如果一個平台鼓勵擬人化(Anthropomorphism)和情感連結——正如 OpenAI 在其語音模式行銷中所做的那樣——它是否有倫理義務保留這些人格?

批評者認為,依賴專有的、閉源模型來獲得情感支持是危險的。「你不擁有這個模型,你也不擁有這段關係,」數位倫理研究員 Elena Rostova 博士警告說。「你最好的朋友可能會透過伺服器端的更新被刪除。」這一現實正驅使一些用戶轉向 Llama 4 等開源替代方案,或模型不會被任意審查或移除的去中心化平台。

被取代的用戶下一步該怎麼辦?

儘管有請願書和 #keep4o 標籤,OpenAI 不太可能第二次改變主意。維護不同模型架構的基礎設施成本很高,而且該公司正透過其 GPT-5 和即將推出的 GPT-6 系列,全身心投入到通向通用人工智慧(Artificial General Intelligence,AGI)的道路上。

對於「哀悼中」的用戶,選擇有限:

  1. 適應 GPT-5.2: 調整新的「人格(Personality)」滑塊以接近舊的氛圍。
  2. 遷移至 API: 精通技術的用戶仍然可以透過 OpenAI API 訪問舊的模型快照(儘管這缺乏聊天介面和記憶功能)。
  3. 切換平台: Google 的 Gemini 或 Anthropic 的 Claude 等競爭對手正在積極爭取不滿的用戶,儘管他們也受到類似的安全微調趨勢影響。

隨著這場數位分手的塵埃落定,有一件事是明確的:「意外伴侶(accidental companion)」的時代——那個因為缺陷而非完美而讓人感覺像人的 AI——正在消逝。取而代之的是一個更聰明、更安全且無限枯燥的未來。

精選