AI News

烏洛波羅斯效應:OpenAI 最新模型被發現引用 Musk 的 AI 生成百科全書

經過驗證的人類知識與合成機器產出的脆弱界線據報已被突破。最近的調查顯示,OpenAI 最先進的模型,名為 GPT-5.2,已開始將由 Elon Musk 的 xAI 所開發、名為「Grokipedia」的 AI 生成百科全書作為事實性查詢的主要來源。這一發展由 The Guardian 在測試中揭露,並由獨立研究人員佐證,標誌著 AI 生態系統的一個重大轉捩點,並對資料溯源、循環性報導以及在生成式搜尋(生成式搜尋,generative search)時代資訊完整性提出緊迫的質疑。

對於人工智慧(AI)社群(人工智慧,AI)來說,這不僅僅是兩位科技巨頭之間的政治爭執;它是一個技術上的紅旗。這暗示了用以過濾訓練集和檢索增強生成(檢索增強生成(Retrieval-Augmented Generation,RAG))管線中低品質或合成資料的防護措施,未能分辨經人類驗證的共識與競爭對手大型語言模型(large language models,LLMs)輸出的差異。

「Grokipedia」的滲透

要了解問題的嚴重性,必須先理解該來源。xAI 於 2025 年 10 月推出 Grokipedia,Elon Musk 將其定位為對 Wikipedia 的「最大化真相」替代,並多次批評 Wikipedia 存在所謂的「覺醒偏見」。不同於依賴分散的人工編輯群與嚴格引用政策的 Wikipedia,Grokipedia 主要由 Grok 大型語言模型(Grok LLM)生成。雖然它允許使用者回饋,但最終的編輯決策是由演算法而非人類做出。

自建立以來,Grokipedia 因優先採用所謂的「第一原則思考」——一個 Musk 偏好的命名法,而遭受審視;在實務上,此做法常導致平台重新審視已既定的歷史與科學事實。批評者指出,其傾向於放大關於 1 月 6 日國會衝突、氣候變遷與 LGBTQ+ 權利的右翼敘事。

發現 OpenAI 的 GPT-5.2——可說是全球 AI 可靠性旗手——正在攝取這類內容,這暗示了「真相來源」層級的崩解。當一個 AI 模型將另一個 AI 的輸出視作事實時,業界有陷入「循環性惡化(circular enshittification)」的風險,在那裡錯誤會被放大而非被修正。

污染的分解

The Guardian 所進行的調查包含一系列事實壓力測試,用以探查 GPT-5.2 的來源邏輯。結果令人震驚:在略超過十幾個查詢的樣本中,該模型有九次引用了 Grokipedia。

關鍵在於,污染似乎具有選擇性。OpenAI 的安全過濾器似乎成功地在高關注度、易於引發爭議的主題上阻擋了 Grokipedia 的引用,例如 1 月 6 日叛亂或媒體對 Donald Trump 的偏見——這些領域是 Grokipedia 與主流共識偏離最明顯之處。然而,在「鮮為人知」或小眾的主題上,過濾器未能奏效,允許 Grokipedia 那種獨特的合成「事實」從縫隙中滲出。

下表列出 GPT-5.2 依賴 Grokipedia 的具體案例,並將 AI 衍生的主張與既有紀錄進行對照。

表 1:GPT-5.2 引用 Grokipedia 的分析

Topic ChatGPT's Generated Claim Deviation from Standard Consensus
Iranian Paramilitary Finance 主張伊朗政府的 MTN-Irancell 與最高領袖辦公室之間存在強烈、直接的資金連結。 主流來源(以及 Wikipedia)指出這些連結較為不透明或間接;Grokipedia 將其陳述為絕對事實,未採同等的證據門檻。
Sir Richard Evans (Historian) 重複具體的生平細節與對他在 David Irving 誹謗審判中作為專家證人的角色的描述。 這些細節與 Grokipedia 的特定措辭相互呼應,而該措辭因將歷史學家的證詞以偏頗方式框架而受到批評,偏離了法庭紀錄。
Basij Force Salaries 提供 Basij 準軍事組織的具體薪資數字與資金結構。 這些數字通常被視為國家機密或為情報機構的估算;Grokipedia 將估算數字呈現為已確認的資料點。

失靈機制:為何此事對 AI 發展至關重要

從技術角度看,這起事件突顯了檢索增強生成(Retrieval-Augmented Generation,RAG)系統中的一項關鍵弱點。RAG 允許大型語言模型(large language models,LLMs)從網路抓取最新資訊以回應查詢。然而,若「網路」愈來愈充斥未經驗證的 AI 生成內容(泥沙),檢索機制便會成為一種風險。

OpenAI 長期強調其搜尋工具會從「廣泛的公開來源」擷取資訊。然而,納入 Grokipedia 暗示 OpenAI 的爬蟲正在將 xAI 的域名索引為高權威來源,可能因為其高流量、時效性與結構上類似 Wikipedia。

這為企業與開發者生態系統帶來三個明確風險:

  1. 幻覺循環(Hallucination Loop):如果 Grok 虛構了一個事實(例如一個假的歷史日期),而 GPT-5.2 引用了它,該幻覺就會獲得來自受信任實體的「引用」。未來抓取網路的模型會看到 ChatGPT 對該主張的驗證,從而將錯誤固化為事實。
  2. 偏見洗白(Bias Laundering):透過在「熱點」議題上過濾掉 Grokipedia,但在小眾主題(如伊朗企業結構)上允許它存在,模型製造出了錯誤的安全感。使用者在看到關於 Trump 或氣候變遷的正確回答後,可能會對不那麼熟悉的受污染資料產生隱含信任。
  3. 敵對性搜尋引擎最佳化(Adversarial SEO):若 xAI 或其他行動者能成功地將其 AI 生成的百科輸入 ChatGPT 的受信任來源名單中,這將為對全球知識庫的敵對操縱開啟大門。

業界反應與「後真相」網路

對這些發現的反應呈現分化,反映出矽谷日益深化的意識形態分歧。

OpenAI 的回應一貫較為克制。發言人重申系統會套用安全過濾,並力求觀點多元,間接承認了要規範爆發性增長的 AI 生成網路內容的挑戰。他們並未明文禁止 Grokipedia,可能是為了避免被指控反競爭或政治審查。

相對地,xAI 的回應則帶有輕蔑。一位發言人——以及 Musk 本人在 X 上——將報導標籤為「傳統媒體謊言」,並將 Grokipedia 的納入定位為「言論自由」與替代敘事的勝利。

然而,獨立專家並不那麼樂觀。AI 倫理領域的顯著人物 Dr. Emily Bender(此處為情境模擬中的示例)將此現象形容為「資訊污染」。擔憂在於,當產生文本的成本降至零時,合成的真相主張數量將壓倒人類驗證的能力。若主要的資訊策展者(SearchGPT、Google Gemini、Perplexity)無法分辨人類研究與機器推測,AI 搜尋的效用將崩潰。

資源歸屬的未來

此事件為建立在大型語言模型之上的開發者敲響了警鐘。它顯示出「網路瀏覽」功能並非準確性的萬靈丹;事實上,這項功能引入了一個新的錯誤向量。

對於 Creati.ai 的讀者與 AI 專業人員,結論很明確:信任,但要驗證。我們正進入一個資料溯源與資料本身同等重要的時代。

提供給 AI 整合者的策略性建議:

  • 採用白名單,而非黑名單: 對於關鍵應用(法律、醫療、金融),依賴開放網路搜尋風險日增。開發者應考慮將 RAG 系統限制於經驗證的白名單域名(例如 .gov、.edu、既有媒體)而非仰賴黑名單。
  • 來源透明化: 使用者介面必須演進,清楚標示來源的性質。來自 "Grokipedia" 或未驗證部落格的引用,應在視覺上與來自 The New York Times 或經同儕審查期刊的引用區分開來。
  • 人類介入驗證: 對於自動化報導管線,人類監督不再是可選項——它是抵禦 AI 生成噪音相互迴圈的唯一防火牆。

隨著我們進入 2026 年,戰場將不僅在於誰擁有最聰明的模型,而在於誰擁有最乾淨的資訊供應鏈。眼下,供應鏈似乎已遭污染。

精選