
這是一個感覺像是從賽博龐克(Cyberpunk)小說情節中走出來的遞歸轉折,據報導,OpenAI 已將其自身的創造物轉向對付其員工。這家人工智慧(Artificial Intelligence)巨頭目前正利用一個專門的、客製化版本的 ChatGPT,來調查並識別負責向媒體洩露敏感內部資訊的員工。這一發展標誌著矽谷秘密戰爭的重大升級,從根本上改變了 AI 創造者與其所構建系統之間的動態關係。
對於一家使命是「確保通用人工智慧(Artificial General Intelligence)造福全人類」的公司來說,其內部氛圍似乎越來越專注於確保有關該智慧的資訊受到嚴格限制。根據《The Information》報導,這項新工具允許安全人員將外部新聞文章(例如詳述未發布模型或內部衝突的文章)輸入系統,然後系統會將公開文本與龐大的內部溝通檔案進行交叉比對。
這名數位偵探背後的機制既強大又具有反烏托邦色彩。根據熟悉該過程的人士透露,當《紐約時報》(The New York Times)或《The Information》等媒體機構出現洩密內容時,OpenAI 的安全團隊會將文章輸入到這個專門構建的 ChatGPT 實例中。
與與私有數據隔絕的消費者版本 ChatGPT 不同,這個內部變體擁有存取公司最深層溝通日誌的特權權限。它可以掃描:
該 AI 會分析洩密文章中的特定措辭、獨特的數據點或只有少數人知道的隱晦專案代號。然後,它將這個「指紋」與內部記錄進行關聯,以標記出有權存取該特定資訊或在私人聊天中使用過類似語言的員工。
這種自動化的取證分析極大地縮短了追蹤洩密所需的時間。過去需要人類調查員進行數週的手動日誌審查,現在可以在幾分鐘內縮小到一份嫌疑人短名單。它將「有人說過話」的模糊懷疑轉化為「誰最有可能說過話」的機率性排名。
部署此工具並非孤立的措施,而是對 OpenAI 歷史上一段動盪時期的反應。該公司一直受到備受關注的洩密事件困擾,這些事件不僅令領導層難堪,甚至可以說改變了整個行業的發展軌跡。
其中最臭名昭著的是關於 Q*(讀作 Q-Star)的披露。這是一個能夠解決新型數學問題的神秘模型,在執行長 Sam Altman 於 2023 年 11 月遭遇突發解僱(以及隨後的重新聘用)前幾天遭到洩密。最近,有關「草莓專案」(Project Strawberry,後來作為 o1 模型發布)的細節流傳至媒體,破壞了公司精心策劃的發布時程。
這些事件強化了 OpenAI 的內部文化。定義其早期非營利時期的開放學術精神已基本消散,取而代之的是典型國防承包商那種僵化的資訊孤島。
表 1:OpenAI 重大洩密事件與安全回應時間線
| 日期 | 事件 / 洩密 | 後果 / 回應 |
|---|---|---|
| 2023 年 11 月 | Q (Q-Star)* 的發現洩露給路透社(Reuters)。 | 被列為董事會失去信心的因素之一;引發了 AI 安全辯論。 |
| 2024 年 4 月 | 研究員 Leopold Aschenbrenner 與 Pavel Izmailov 被解僱。 | 被指控洩露機密資訊;Aschenbrenner 後來向美國證券交易委員會(SEC)提出投訴。 |
| 2024 年 7 月 | 草莓專案細節浮出水面。 | 在正式「o1」發布前暴露了推理能力;安全協議進一步加強。 |
| 2024 年底 | 「洩密捕捉器」 AI 工具部署。 | 部署內部 ChatGPT 版本,掃描 Slack/電子郵件以尋找洩密源。 |
| 進行中 | **吹哨者保密協議(Whistleblower NDAs)**爭議。 | SEC 投訴指控其存在非法限制性的非披露協議。 |
該工具對 OpenAI 員工產生的心理影響不容小覷。員工現在工作的環境中,他們的語法、用詞選擇以及隨意的數位足跡,隨時可能被他們親手參與構建的工具轉化為對付他們的武器。
這創造了一種「全景監獄」效應——一種被持續監視的感覺,即使監視者是一個演算法。它引發了關於 AI 時代工作性質的深刻問題。如果 AI 可以分析語義偏移(Semantic drift)來識別誰與記者交談過,它是否也能根據員工 Slack 訊息的情緒分析來預測誰可能會洩密?
諷刺之處顯而易見:這家公司有效地利用開放網際網路訓練其模型(通常是在沒有明確同意的情況下抓取數據),卻採用嚴酷的、由 AI 驅動的監控,來防止其自身的數據流回同一個公共領域。
對洩密者的激進獵捕也與有關吹哨行為(Whistleblowing)的複雜法律和道德問題交織在一起。2024 年 4 月,研究員 Leopold Aschenbrenner 和 Pavel Izmailov 因涉嫌洩密而被終止合約。身為「超級對齊」(Superalignment)團隊成員的 Aschenbrenner 後來公開表示,他的解僱具有政治動機,並向美國證券交易委員會(SEC)提出了投訴。
他的投訴指稱,OpenAI 的非披露協議(NDAs)具有非法限制性,可能阻止員工向監管機構報告安全疑慮。如果「洩密捕捉器」工具被用來識別與聯邦監管機構溝通或揭露安全違規行為(而非僅僅出賣商業秘密)的員工,OpenAI 可能面臨重大的法律阻力。
OpenAI 並非唯一擁有這種堡壘心態的公司,儘管它在自動化方面可能是最激進的。隨著「AI 軍備競賽」的賭注升級,涉及數兆美元的市場價值,Google DeepMind 和 Anthropic 等領先的實驗室也在收緊其安全邊界。
然而,使用大型語言模型(Large Language Model,LLM)來監管人類員工引入了一個新變量。傳統的資料外洩防護(Data Loss Prevention,DLP)軟體會尋找特定的檔案傳輸或關鍵字。而基於 LLM 的安全工具則能理解語境。即使員工為了避開關鍵字過濾而對資訊進行了轉述,它也能偵測到洩密。這代表了企業反情報能力的量子飛躍。
這裡創下的先例對更廣泛的科技領域來說令人不安。隨著 AI 工具更多地整合到企業軟體中,對員工進行深層語義監控的能力將變得商品化。
OpenAI 使用 客製化 ChatGPT 來抓捕洩密者,既是一個技術奇蹟,也是一個文化警告訊號。它展示了這項技術解析海量非結構化數據以尋找「大海撈針」的原始力量。然而,它也標誌著 AI 研究開放時代的結束。
隨著這些公司競相開發通用人工智慧(AGI),圍牆正在關閉。構建未來的研究人員正處於他們親手創造的智慧體監視之下。對於 Creati.ai 而言,這一發展凸顯了一種關鍵的張力:隨著 AI 系統變得更加強大,它們不可避免地會被用來加強控制它們的組織權力結構,將 AI 的「黑盒子」變成一個讓組織本身保持黑盒子狀態的工具。
傳遞給 OpenAI 員工的訊息很明確:AI 正在傾聽,且它比你更了解你的寫作風格。