
在印度農村的一個泥板廊台(mud slab veranda)上,Monsumi Murmu 將筆電放在膝蓋上,搜尋著穩定的行動訊號。對於偶然的觀察者來說,她代表了數位經濟觸及全球南方(Global South)的承諾——一位獲得遠端技術工作賦能的年輕女性。但她螢幕上的現實卻暗淡得多。每天數小時,Murmu 和印度各地成千上萬的其他女性,充當全球人工智慧系統的人力安全網,清除訓練數據集中最具毒性的元素。
一項新的調查揭露了這項工作對其主要為女性的勞動力所造成的嚴重心理代價。她們的任務是審查成千上萬張描繪極端暴力、性虐待和血腥內容的圖片和影片,以「教導」AI 模型應過濾掉哪些內容。這些工人正報告嚴重的 心理健康 危機。定義性的症狀不是歇斯底里,而是一種令人心寒的解離感(dissociation)。正如 Murmu 所描述的,這種恐怖最終不再令人震驚。「最後,」她說,「你會感到腦袋一片空白。」
Murmu 等工人所描述的「感到空白」現象,指向一種被稱為情緒麻木(emotional numbing)的特定心理防禦機制。這種解離是創傷後壓力症候群(PTSD)的標誌,但在 AI 數據標記的背景下,雇主常將其誤認為是韌性或適應。
工人們報告說,工作的前幾週最為艱難,通常伴隨著生理反應——噁心、哭泣和無法進食。然而,隨著暴露的持續,大腦開始關閉情緒反應,以在虐待性內容的衝擊中生存下來。「到最後,你不再感到不安——你感到空白,」Murmu 解釋道。然而,創傷在安靜的時刻會重新浮現。「有些夜晚,那些夢境仍然會回來。那時你就會知道這份工作對你造成了影響。」
這種延遲的心理後果特別危險,因為它掩蓋了即時的損傷。領導數據工人調查(Data Workers' Inquiry)的社會學家 Milagros Miceli 主張,行業未能識別這種細微差別是災難性的。「可能有些審核員逃過了心理傷害,但我還沒有看到證據,」Miceli 表示。她將 內容審核 分類為「危險工作,堪比任何致命行業」,這一分類要求嚴格的安全標準,而這些標準目前在印度的外包中心並不具備。
該調查涉及對在印度營運的八家主要數據標註和內容審核公司的訪談。調查結果揭示了 AI 行業的高科技形象與其供應鏈陳舊的勞動條件之間存在巨大鴻溝。
企業對工人創傷的回應
| 公司回應類型 | 頻率 | 提供的理由 |
|---|---|---|
| 無心理支持 | 8 家公司中的 6 家 | 聲稱工作「不夠繁重」,不需要關懷 |
| 提供有限支持 | 8 家公司中的 2 家 | 僅在要求下提供支持;工人需承擔自我識別的負擔 |
| 主動監測 | 8 家公司中的 0 家 | 無 |
如上表所示,大多數公司忽視了這項工作的嚴峻性。行業評論員 Vadaliya 指出,即使存在支持,尋求支持的負擔也完全轉移到了工人身上。「這忽略了現實情況,即許多數據工人,特別是那些來自偏遠或邊緣化背景的工人,甚至可能沒有語言來表達他們正在經歷的事情,」Vadaliya 解釋說。
這種機構支持的缺乏因文化和經濟背景而加劇。對於印度農村的許多女性來說,這些工作是難得的經濟生命線。對失去這份收入的恐懼通常使她們保持沉默,被迫在不抱怨的情況下忍受心理壓力。結果是勞動力正從內部緩慢侵蝕,犧牲她們的心理健康,以確保數千英里外的消費者所使用的 AI 產品的「安全性」。
要了解這一問題的深度,必須觀察人類回饋強化學習(RLHF)的作用。這個過程是現代生成式 AI 的引擎。在模型向大眾發布之前,必須訓練它識別並拒絕有害內容的請求。這種訓練並非魔術;它需要人類查看、標記並分類網路上最糟糕的內容,以便 AI 知道該避開什麼。
分配給審核員的具體任務包括:
去年 12 月發布的研究表明,這種持續的警戒會引發持久的認知變化。工人們會產生高度焦慮、侵入性想法和睡眠障礙。「空白感」僅僅是大腦處理無法處理的海量恐怖內容的嘗試。研究發現,即使在存在某些職場干預的環境中,顯著程度的二次創傷仍然存在,這表明目前的心理健康支持模型根本無法應對問題的規模。
印度女性內容審核員的困境引發了關於全球 AI 供應鏈倫理的令人不安的問題。當矽谷巨頭慶祝其最新大語言模型(LLMs)的「魔力」和「安全性」時,清理這些模型所需的混亂、創傷性工作卻外包給了全球南方。這創造了一個兩層系統:西方的高薪工程師構建架構,而東方的低薪、受創傷的工人則清理數據湖的下水道。
AI 生態系統中的差異
| 特徵 | AI 工程師(全球北方) | 數據審核員(全球南方) |
|---|---|---|
| 主要產出 | 代碼、算法、架構 | 標籤、標註、安全過濾器 |
| 工作環境 | 高科技園區、遠端靈活性 | 農村家庭、擁擠的中心、不穩定的連線 |
| 心理風險 | 低(倦怠、壓力) | 極端(PTSD、解離、二次創傷) |
| 報酬 | 高薪、股權、福利 | 時薪,通常低於生活工資標準 |
這種差異不僅是一個經濟問題,也是一個權利問題。外包模式有效地將 AI 開發的心理損害轉嫁給了心理醫療資源最匱乏的人群。當公司聲稱其 AI 是「安全」的時,他們很少披露為了實現這種安全而付出的代價。
Monsumi Murmu 及其同事感受到的「空白感」是整個行業的警示信號。隨著 AI 模型變得越來越大,對數據標註的需求增加,對人類審核員的依賴只會增加。如果行業繼續將這些工人視為可丟棄的組件而非重要的貢獻者,AI 經濟的基礎將繼續建立在人類的苦難之上。
Miceli 等專家正呼籲徹底改革數據工作的分類和薪酬方式。這包括:
對於 Creati.ai 來說,訊息很明確:人工智慧的未來離不開構建它的人類的福祉。依賴工人「空白感」的創新不是進步,而是剝削。隨著行業的進步,它必須決定是帶領工人前進,還是將他們留在黑暗中。