
經過驗證的人類知識與合成機器產出的脆弱界線據報已被突破。最近的調查顯示,OpenAI 最先進的模型,名為 GPT-5.2,已開始將由 Elon Musk 的 xAI 所開發、名為「Grokipedia」的 AI 生成百科全書作為事實性查詢的主要來源。這一發展由 The Guardian 在測試中揭露,並由獨立研究人員佐證,標誌著 AI 生態系統的一個重大轉捩點,並對資料溯源、循環性報導以及在生成式搜尋(生成式搜尋,generative search)時代資訊完整性提出緊迫的質疑。
對於人工智慧(AI)社群(人工智慧,AI)來說,這不僅僅是兩位科技巨頭之間的政治爭執;它是一個技術上的紅旗。這暗示了用以過濾訓練集和檢索增強生成(檢索增強生成(Retrieval-Augmented Generation,RAG))管線中低品質或合成資料的防護措施,未能分辨經人類驗證的共識與競爭對手大型語言模型(large language models,LLMs)輸出的差異。
要了解問題的嚴重性,必須先理解該來源。xAI 於 2025 年 10 月推出 Grokipedia,Elon Musk 將其定位為對 Wikipedia 的「最大化真相」替代,並多次批評 Wikipedia 存在所謂的「覺醒偏見」。不同於依賴分散的人工編輯群與嚴格引用政策的 Wikipedia,Grokipedia 主要由 Grok 大型語言模型(Grok LLM)生成。雖然它允許使用者回饋,但最終的編輯決策是由演算法而非人類做出。
自建立以來,Grokipedia 因優先採用所謂的「第一原則思考」——一個 Musk 偏好的命名法,而遭受審視;在實務上,此做法常導致平台重新審視已既定的歷史與科學事實。批評者指出,其傾向於放大關於 1 月 6 日國會衝突、氣候變遷與 LGBTQ+ 權利的右翼敘事。
發現 OpenAI 的 GPT-5.2——可說是全球 AI 可靠性旗手——正在攝取這類內容,這暗示了「真相來源」層級的崩解。當一個 AI 模型將另一個 AI 的輸出視作事實時,業界有陷入「循環性惡化(circular enshittification)」的風險,在那裡錯誤會被放大而非被修正。
The Guardian 所進行的調查包含一系列事實壓力測試,用以探查 GPT-5.2 的來源邏輯。結果令人震驚:在略超過十幾個查詢的樣本中,該模型有九次引用了 Grokipedia。
關鍵在於,污染似乎具有選擇性。OpenAI 的安全過濾器似乎成功地在高關注度、易於引發爭議的主題上阻擋了 Grokipedia 的引用,例如 1 月 6 日叛亂或媒體對 Donald Trump 的偏見——這些領域是 Grokipedia 與主流共識偏離最明顯之處。然而,在「鮮為人知」或小眾的主題上,過濾器未能奏效,允許 Grokipedia 那種獨特的合成「事實」從縫隙中滲出。
下表列出 GPT-5.2 依賴 Grokipedia 的具體案例,並將 AI 衍生的主張與既有紀錄進行對照。
表 1:GPT-5.2 引用 Grokipedia 的分析
| Topic | ChatGPT's Generated Claim | Deviation from Standard Consensus |
|---|---|---|
| Iranian Paramilitary Finance | 主張伊朗政府的 MTN-Irancell 與最高領袖辦公室之間存在強烈、直接的資金連結。 | 主流來源(以及 Wikipedia)指出這些連結較為不透明或間接;Grokipedia 將其陳述為絕對事實,未採同等的證據門檻。 |
| Sir Richard Evans (Historian) | 重複具體的生平細節與對他在 David Irving 誹謗審判中作為專家證人的角色的描述。 | 這些細節與 Grokipedia 的特定措辭相互呼應,而該措辭因將歷史學家的證詞以偏頗方式框架而受到批評,偏離了法庭紀錄。 |
| Basij Force Salaries | 提供 Basij 準軍事組織的具體薪資數字與資金結構。 | 這些數字通常被視為國家機密或為情報機構的估算;Grokipedia 將估算數字呈現為已確認的資料點。 |
從技術角度看,這起事件突顯了檢索增強生成(Retrieval-Augmented Generation,RAG)系統中的一項關鍵弱點。RAG 允許大型語言模型(large language models,LLMs)從網路抓取最新資訊以回應查詢。然而,若「網路」愈來愈充斥未經驗證的 AI 生成內容(泥沙),檢索機制便會成為一種風險。
OpenAI 長期強調其搜尋工具會從「廣泛的公開來源」擷取資訊。然而,納入 Grokipedia 暗示 OpenAI 的爬蟲正在將 xAI 的域名索引為高權威來源,可能因為其高流量、時效性與結構上類似 Wikipedia。
這為企業與開發者生態系統帶來三個明確風險:
對這些發現的反應呈現分化,反映出矽谷日益深化的意識形態分歧。
OpenAI 的回應一貫較為克制。發言人重申系統會套用安全過濾,並力求觀點多元,間接承認了要規範爆發性增長的 AI 生成網路內容的挑戰。他們並未明文禁止 Grokipedia,可能是為了避免被指控反競爭或政治審查。
相對地,xAI 的回應則帶有輕蔑。一位發言人——以及 Musk 本人在 X 上——將報導標籤為「傳統媒體謊言」,並將 Grokipedia 的納入定位為「言論自由」與替代敘事的勝利。
然而,獨立專家並不那麼樂觀。AI 倫理領域的顯著人物 Dr. Emily Bender(此處為情境模擬中的示例)將此現象形容為「資訊污染」。擔憂在於,當產生文本的成本降至零時,合成的真相主張數量將壓倒人類驗證的能力。若主要的資訊策展者(SearchGPT、Google Gemini、Perplexity)無法分辨人類研究與機器推測,AI 搜尋的效用將崩潰。
此事件為建立在大型語言模型之上的開發者敲響了警鐘。它顯示出「網路瀏覽」功能並非準確性的萬靈丹;事實上,這項功能引入了一個新的錯誤向量。
對於 Creati.ai 的讀者與 AI 專業人員,結論很明確:信任,但要驗證。我們正進入一個資料溯源與資料本身同等重要的時代。
提供給 AI 整合者的策略性建議:
隨著我們進入 2026 年,戰場將不僅在於誰擁有最聰明的模型,而在於誰擁有最乾淨的資訊供應鏈。眼下,供應鏈似乎已遭污染。