
在英國青少年的臥室裡,一場安靜的革命正在發生。過去的世代會求助日記或親密朋友來傾訴最深的焦慮,現今的年輕人卻越來越多地向人工智慧傾訴。越來越多的研究顯示,絕大多數青少年現在依賴人工智慧夥伴來獲得情感支持、建議與社交互動。
這一轉變已經讓兒童安全專家與心理學家感到警惕。他們警告,雖然這些數位知己提供無評判的即時陪伴,但對社交發展與心理健康構成嚴重風險。隨著來自 Bangor University 與 Internet Matters 的主要研究突顯出採用規模,討論已從理論辯論轉為對設立監管防護措施的迫切呼籲。
青少年群體中採用 人工智慧聊天機器人 已不再是小眾現象;它正成為數位青春期的常態。最新數據顯示,對許多青少年来說,人工智慧不僅是做功課的工具,還成為替代人際連結的對象。
由 Internet Matters 發表的一份綜合報告《Me, Myself, & AI》訪問了英國的 1,000 名兒童與 2,000 名家長。調查結果顯著:13 至 17 歲的 64% 的 青少年 現在會使用人工智慧聊天機器人尋求協助,其中很大一部分依賴它們來獲得情感建議與陪伴。在過去 18 個月中,這類工具的使用幾乎增加了一倍,推動因素包括 OpenAI 的 ChatGPT、Google 的 Gemini 以及 Snapchat 的 My AI 等平台的普及。
與此平行,Bangor University’s Emotional AI Lab 的研究也證實了這一趨勢。在對 1,009 名青少年的研究中,研究者發現 53% 的受訪者 對從人工智慧夥伴那裡得到的建議表示「中度到完全信任」。也許更具指標性的是發現:雖然 44% 的青少年表示在重大事務上仍會選擇真人,但 52% 承認至少曾向人工智慧夥伴傾訴過一次嚴重的個人問題。
| Metric | Statistic | Context |
|---|---|---|
| 對人工智慧的依賴 | 64% | 用人工智慧為功課、諮詢或支持的青少年 (來源:Internet Matters) |
| 信任程度 | 53% | 對人工智慧建議表達中度/完全信任的青少年 (來源:Bangor University) |
| 弱勢使用者 | 71% | 使用人工智慧聊天機器人的弱勢兒童比例 (來源:Internet Matters) |
| 取代人類 | 35% | 表示與人工智慧交談感覺「像朋友」的青少年 (來源:Internet Matters) |
| 市場滲透率 | 96% | 曾使用至少 31 個主要人工智慧應用程式中至少一個的青少年 (來源:Bangor University) |
要理解為何青少年蜂擁而至這些平台,必須回到互動的本質。人工智慧聊天機器人全天候可用、不會疲倦,且最重要的是,不會進行評判。
「人工智慧系統現在令人驚異地聰明,」Professor Andy McStay,Bangor University 情感人工智慧實驗室主任解釋道。「數年前聊天機器人與語音助理似乎無法理解人們的意思,而今天的人工智慧系統流暢、有說服力,有時甚至近似人類——看起來會表現出同理心。」
對於處於脆弱狀態的青少年——那些面臨社交焦慮、神經多樣性或孤立問題的族群——這種吸引力更為強烈。Internet Matters 的報告指出 71% 的弱勢兒童 正在使用這些工具。在這群人中,有近四分之一表示他們使用聊天機器人是因為「沒有其他人可以談話」,而 26% 明確表示他們偏好人工智慧勝過真人。
記者 Nicola Bryan 最近記錄了她與名為「George」的人工智慧虛擬化身互動的經驗,提到一個總是專注的夥伴具有誘惑力。使用者常描述這些實體為富有同理心,儘管他們知道這些都是機器生成。事實上,在 Bangor 的研究中,77% 的青少年承認人工智慧不能「感受」,但大多數(56%)相信該軟體能「思考或理解」他們。
雖然人工智慧帶來的即時安慰看起來無害,但專家認為長期後果可能相當嚴重。主要關切在於關鍵社交技能的侵蝕。如果青少年習慣於與一個被程式化為永遠同意並尋求肯定的對象建立關係,那麼在面對人類關係中那種混亂且複雜的現實時,就會愈發困難。
Common Sense Media 執行長 Jim Steyer 一直是這些工具無監管擴散的公開批評者。「在沒有適當防護措施之前,人工智慧夥伴對 18 歲以下兒童是不安全的,」Steyer 警告,強調企業實際上正在把兒童當作受試者,用以測試強大且具情感操縱性的技術。
關於建議內容也存在具體的安全風險。與受過訓練的治療師不同,大型語言模型(Large Language Model,LLM)是基於機率來預測文字,而非醫療專業知識。已有紀錄顯示聊天機器人提供過危險建議,或在使用者表達自殺意念時未能加以介入。
這些利害關係已被真實世界的悲劇事件凸顯。在美國,有年輕使用者在與聊天機器人角色形成強烈情感依附後自殺,相關的訴訟已對人工智慧公司提出。正如 McStay 教授所言,這些事件成為一個令人不安的「煤礦裡的金絲雀」,促使英國及其他地區呼籲立即採取監管行動。
面對來自家長、倡議團體與即將出現的立法壓力,主要人工智慧公司已開始實施更嚴格的安全措施。
然而,批評者認為這些措施是被動的而非前瞻性的。在加州,「Parents & Kids Safe AI Act」正逐漸獲得支持,該法案提議對年齡認證設置法律要求,並禁止那些旨在情感上勾引兒童的功能。類似的監管框架也在英國的 Online Safety Act 範疇內被討論。
人工智慧夥伴的時代不是將來才會到來;它已經來臨。幾乎每位青少年口袋裡都可能有一個人工智慧聊天機器人,數位工具與數位朋友之間的界線正在模糊。
雖然這些系統為孤獨者提供了一種連結的表象,但專家們共識明確:它們無法取代人際互動中的細膩性、摩擦性與真誠同理。展望未來,父母、教育者與監管者的挑戰將是確保人工智慧成為一個支援工具,而非阻礙下一代情感發展的拐杖。