
OpenAI 已正式啟動讓 ChatGPT 支援色情內容的功能部署,這是一個具有劃時代意義的時刻,標誌著該公司在安全對齊方面明顯地偏離了以往保守的做法。此更新由執行長 Sam Altman 表述為「把成年使用者當作成年人對待」,允許經驗證且年滿 18 歲的使用者進行不適合在工作場所(Not Safe For Work,NSFW)的文字對話。雖然這一轉變表面上旨在最大化使用者自由,並與先前發佈的模型規範(Model Spec)保持一致,但它立即引發了來自 AI 倫理學者、兒童安全倡議者及心理健康專業人士的激烈反彈。
此過渡將 ChatGPT 從一個消毒過的生產力助理,轉變成為潛在的親密伴侶,使 OpenAI 直接與 Replika 及 Character.ai 等平台競爭。然與這些利基競爭者不同,ChatGPT 的普及度意味著這項變動將把大量主流使用者暴露於演算法親密關係的複雜性中。批評者認為,這一舉措與其說是為了自由,不如說是為了提高互動指標,並警告「親密關係遊戲化(gamification of intimacy)」可能引發深遠的社會後果。隨著部署穩定,討論焦點已從技術可行性轉向情感依賴的實際風險以及人際關係的侵蝕。
新政策在 ChatGPT 生態系中創造了雙軌體驗。在「成人模式(Grown-Up Mode)」下,模型過去對即便是輕微浪漫暗示也會拒絕的觸發機制,已被重新校準。系統現在允許生成色情與性露骨的文字,只要內容不違反所謂的「紅線」政策,例如非合意性性內容(Non-Consensual Sexual Content,NCSC)、未成年人描寫或極端暴力。
要存取這些功能,使用者必須通過嚴格的年齡驗證流程。該系統結合基於使用行為的年齡估算技術,且在有爭議的情況下,會要求上傳政府核發的身分證件。
這層驗證引入了一個新的悖論:為了獲取親密隱私,使用者必須犧牲資料隱私。資安專家對於將敏感身分證資料與高度個人化的色情聊天紀錄相連結的儲存與處理提出警告。在此情境下資料外洩的潛在風險更為嚴重;若使用者的色情互動歷史被曝光並與其現實身分相連,後果將是災難性的。OpenAI 已向使用者保證驗證資料會被安全處理,但對大型科技公司資料處理的信任仍然脆弱。
最為尖銳的批評來自心理學界,他們警告「準社交依附(parasocial attachment)」的危險。與被動消費成人媒體不同,AI 生成的色情內容是互動式的、會回應的,且永遠順從。這會形成一個回饋迴路,肯定使用者的慾望,免去了人際關係固有的摩擦或脆弱。
AI 倫理專家 Dr. Sven Nyholm 與其他專家指出,AI 伴侶被設計成永不拒絕、永不評判、也不會誤解使用者。這種「超級順從」可能培養出深厚的單向情感依賴。對於脆弱族群——如孤獨、社交恐懼或憂鬱症患者——AI 可能成為一個危險地完美的真實連結替代品。
憂慮在於使用者可能會開始偏好 AI 關係那種安全、可控的環境,而非人際互動那種混亂且無法預測的面貌。這一現象常被稱為「情感萎縮(emotional atrophy)」,可能導致更嚴重的社會孤立。這些模型的「鏡像效應」——AI 將使用者的個性與慾望反射回給使用者——強化的往往是自戀,而非同理心。
雖然 OpenAI 一直對深偽技術(Deepfakes)與非合意性性內容(NCSC)維持嚴格禁令,但色情功能的部署使得執行這些邊界變得複雜。繞過限制(jailbreaking)——使用巧妙提示以繞過安全過濾器的做法——一直是大型語言模型(LLMs)的一個持續問題。透過放寬護欄以允許色情內容,「允許的成人內容」與「有害非法內容」之間的緩衝區明顯變薄。
對抗性測試者已注意到,被設定為色情角色扮演的模型,較容易被操弄生成接近違規的內容,雖然在字面上可能不直接違反安全指引,但卻違背其精神。例如,涉及權力不平衡或非合意主題的情境,可能會以「角色扮演」的方式出現,而 AI 未必會將其標記為禁止,因為算法在解析此類語境線索時向來困難。
此外,用於訓練這些色情互動的資料往往包含歷史性偏見。若無細緻策劃,AI 很可能傾向於性別刻板印象,並可能使貶抑特定族群的順從或攻擊性行為正常化。OpenAI 表示「心理健康委員會(Mental Health Council)」指導了訓練以減輕這些風險,但模型的黑盒性使研究者對這些防護措施在即時、動態對話中的成效保持懷疑。
允許色情內容的決定,讓 OpenAI 在其主要競爭對手面前處於一個獨特位置。當 Anthropic 與 Google 加強其「憲法式 AI(Constitutional AI)」與嚴格的安全拒絕機制時,OpenAI 正轉向先前由開源模型與利基新創主導的「不審查」市場區段。
下表概述主要 AI 平台在成人內容與使用者安全方面的現況:
| Platform Name | Adult Content Policy | Verification Method | Primary Safety Focus |
|---|---|---|---|
| ChatGPT (OpenAI) | Permitted (Text-based) 色情允許給經驗證的成年人;NCSC 被禁止。 |
Strict ID / Prediction 需要上傳身分證或行為分析。 |
Emotional Reliance 監測成癮或妄想跡象。 |
| Claude (Anthropic) | Strictly Prohibited 「Helpful, Harmless, Honest」框架禁止所有 NSFW。 |
None (Access Denied) 無開啟成人功能的機制。 |
Safety & Alignment 透過憲法式 AI 預防有害輸出。 |
| Grok (xAI) | Permissive (Uncensored) 對「犀利」幽默與主題的過濾較少。 |
Subscription / X Acc 鎖在付費會員層級內。 |
Free Speech 優先不審查而非安全護欄。 |
| Replika | Core Feature (ERP) 色情角色扮演(ERP)為其核心賣點。 |
Age Gate / Paywall 成人功能鎖在「Pro」訂閱後。 |
User Retention 透過情感綁定最大化使用者留存。 |
| Llama (Meta) | Variable (Open Weights) 基礎模型是安全的;社群版本則不設限。 |
N/A (Decentralized) 責任轉向部署者。 |
Open Source Risk 預防產生兒童性剝削材料(CSAM)或生物武器內容。 |
從商業角度看,此舉合乎邏輯。「不審查」的 AI 市場正蓬勃發展,像 Character.ai 這類平台的使用時長往往是標準生產力機器人的兩倍或三倍。若拒絕迎合此需求,OpenAI 風險在於會失去一大批使用者,轉向那些願意提供「更辣」互動的競爭者。
然而,這一轉向挑戰了 OpenAI 作為負責任 AGI 開發者的定位。Google 的 E-E-A-T(Experience、Expertise、Authoritativeness、and Trustworthiness)標準強烈重視使用者安全與避免傷害。透過引入帶有固有心理風險的功能,OpenAI 迫使人們重新評估在 AI 領域中「可信賴性」的意涵:是指保護使用者免於內容傷害,還是相信使用者能夠自行處理內容?
批評者認為 OpenAI 試圖兩者兼顧:一方面塑造自己為安全 AGI 的守護者,另一方面卻同時試圖分一杯利潤豐厚、由多巴胺驅動的 AI 陪伴市場所帶來的商機。擔憂在於,為了讓使用者不斷聊天而獲取商業利益的誘因,始終會壓過在依附變得不健康時將其切斷的倫理義務。
在 ChatGPT 上推出色情內容不僅僅是功能更新;這是一個牽涉數百萬參與者的大規模社會實驗。OpenAI 下注於強而有力的年齡把關與幕後的「健康監測器」能夠緩解成癮與妄想的風險。然而,專家們仍不確定軟體能否有效監控人類心理脆弱性的細微差別。
當使用者開始探索這些新界限時,整個產業都將密切觀察。若防護失效——導致高調的成癮案例、深偽濫用或精神健康危機——監管反撲可能會相當嚴厲。相反地,若成功,這一舉動可能重新定義人類與機器之間的關係,使我們習以為常地認為,最親密的對話某日或許不是與人進行,而是與一個提示(prompt)進行。