AI News

OpenAI 在 ChatGPT 上實施行為年齡預測(behavioral age prediction)以強化未成年使用者的安全

OpenAI 已正式開始為 ChatGPT 部署一套複雜的年齡預測模型,這代表從以自我申報為主的年齡驗證,轉向主動的、基於行為的安全執行。該公司於本週宣布,新系統旨在自動識別 18 歲以下的使用者並套用嚴格的內容保護措施,以回應全球對 AI 未成年安全日益增長的關切。

此舉是基礎模型供應商基於人口推斷(而非僅憑使用者輸入)來策畫 AI 體驗的最積極措施之一。透過分析使用模式,OpenAI 打算建立一個「數位周界」,以保護較年幼的使用者免於接觸敏感內容,同時為經驗驗證的使用者在今年稍後開放更不受限的「成人模式(Adult Mode)」鋪路。

轉向行為分析(behavioral analysis)

傳統上,線上平台仰賴出生年月日閘門,但這類機制很容易被具技術能力的青少年繞過。OpenAI 的新方案使用一個專有的機器學習模型,評估一組複雜的帳戶層級與行為訊號矩陣,以估算使用者的年齡層級。

根據隨更新釋出的技術文件,該模型並不會掃描私人內容以尋找生物識別資料,而是觀察 metadata 與參與模式。關鍵訊號包括:

  • Account Tenor(帳戶存續期): 帳戶的存在時間及其歷史使用資料。
  • Temporal Patterns(時間性模式): 對「典型活躍時段」的分析,辨識與學校作息相符的使用行為,或與成人工作例行相符的使用行為。
  • Linguistic Complexity(語言複雜度): 為保護模型安全,未具體說明細節,但業界專家推測系統可能會分析句法與主題選擇,以區分青少年與成人的查詢。
  • Stated Age Consistency(聲明年齡一致性): 將使用者先前聲明的年齡與其實際平台行為交叉比對。

當系統判定使用者為未成年之機率高時——或當信心水準不明確時——系統會採取「較安全的路線」,自動將帳戶切換到受限保護模式。

未成年保護模式(Minor Protection Mode):圍牆式花園

此更新的核心在於套用於被識別為未成年帳戶的一組具體護欄。這些保護措施超越標準內容審查,會積極介入那些可能滑向心理或身體風險領域的對話。

「未成年保護模式」特別針對:

  • 自傷與心理健康: 對於與自我傷害、自殺或飲食失調相關的查詢,採取更嚴格的拒絕並立即導向資源。
  • 血腥內容: 對血腥、暴力或性描寫採取零容忍過濾。
  • 危險的病毒式潮流: 阻擋常在青少年間流傳、具有危險性的社群媒體挑戰相關內容。
  • 角色扮演限制: 限制涉及戀愛、暴力或極端人際衝突的 AI 人格互動。

OpenAI 表示,這些分類是在與兒童安全組織及 American Psychological Association 協商後定義,確保過濾措施符合發展需求,而非僅為避免法律責任。

驗證與通往「成人模式(Adult Mode)」之路

鑑於可能出現的誤判情形——例如某些成人因使用習慣而被誤列為青少年——OpenAI 已整合一套完善的補救流程。認為自己被錯誤限制的使用者,可以透過第三方身份驗證服務 Persona 驗證身分以恢復完整存取。此流程通常需要政府身分證件或生物特徵自拍檢查以確認使用者已滿 18 歲。

此驗證基礎設施同時為 OpenAI 的未來規劃奠定基礎。公司計畫透過可靠區分使用者群,推出「成人模式(Adult Mode)」(預計在 2026 年第 1 季晚些時候),使經驗證的成人能存取先前在一般安全指引下受限的內容,實際上將平台分為對公眾的「安全」版本與對經驗證成人的「不受限」版本。

比較概覽:安全分級

Feature Standard Experience (Verified Adult) Minor Protection Mode (Under 18)
Content Access Full access to general knowledge, creative writing, and complex reasoning tasks Restricted access; blocks sensitive topics like graphic violence and risky challenges
Intervention Logic Standard safety refusals for illegal acts Proactive redirection to helplines for mental health and body image topics
Verification Requirement Optional (Required for future "Adult Mode") None; automatically applied based on behavioral signals
Roleplay Capabilities Flexible persona adoption within safety limits Strictly limited to educational or neutral personas; no romantic/violent roleplay
Data Privacy Standard data retention and training options Enhanced privacy settings; reduced data usage for model training
(defaults to stricter privacy)

產業脈絡與法規壓力

此發展正值 AI 產業的關鍵時刻。隨著美國實施 Kids Online Safety Act(KOSA),以及歐洲針對兒童資料的嚴格 GDPR 合規要求,科技巨頭面臨巨大的壓力,必須證明他們能有效為平台實施年齡把關。

OpenAI 的行為預測模型為業界在不必對每位使用者進行侵犯性身分檢查的情況下,提供了一個潛在的「年齡驗證」解決方案。但這也提出了隱私方面的疑問:AI 需要在多大程度上「了解」使用者,才能推測其年齡。

批評者主張,行為分析式的側寫可能具有侵入性,可能會不利於神經多樣性成人(neurodivergent adults)或那些作息非傳統的人,將他們標記為未成年。OpenAI 則強調其訊號的「隱私保護」特性,並指出透過 Persona 的整合提供了簡單的救濟途徑。

The Creati.ai 觀點

在我們 Creati.ai 看來,這次更新象徵著生成式 AI(Generative AI)從實驗性技術逐步邁向受規範的消費者工具。正如社群媒體平台曾被迫面對其對青少年心理健康的影響,AI 供應商現在也在預先建構基礎設施以管理這些風險。

若此年齡預測模型能在低摩擦下展現高準確度,其成功可能成為產業新標準。若 OpenAI 能證明其成效,我們預期像 Anthropic 與 Google DeepMind 等競爭者會加速各自的行為型安全措施。最終,這種對使用者群的二分化,允許 AI 工具對專業人士保持強大且多功能,同時為下一代數位原住民提供更安全的遊樂場。

精選