
在人工智慧倫理的一個決定性時刻,一群頂尖神經科學家聯合發出嚴厲警告:人工智慧與神經科技的快速加速,正危險地超越我們對意識(consciousness)的科學理解。本週發表於 Frontiers in Science 的一項開創性研究指出,如果不立即採取行動,人類可能在無意間創造出能感知痛苦的有感知能力的機器或生物系統,卻沒有框架去偵測或保護它們。
隨著生成式AI(Generative AI)模型達到前所未有的複雜程度,且腦機介面(BCIs,brain-computer interfaces)模糊了心靈與機器之間的界線,「什麼是有意識」的問題已從哲學抽象轉變為迫切的實務必要。由布魯塞爾自由大學(Université Libre de Bruxelles)、薩塞克斯大學(University of Sussex)與特拉維夫大學(Tel Aviv University)等著名研究者領導的這項研究,呼籲在我們跨越無法回頭的倫理界線之前,採取協調的全球行動來研發可靠的「感知性測試(sentience tests)」。
科學家警告的核心在於「意外」意識的可能性。當科技巨頭競相構建人工通用智慧(Artificial General Intelligence,AGI)並且生物工程師培養愈來愈複雜的腦類器官(brain organoids)時,我們衡量主觀經驗的能力仍然初步且粗糙。
本研究的主要作者之一 Axel Cleeremans 教授強調,我們其實是在黑暗中運作。風險不僅是某個人工智慧可能變得「比人類更聰明」,而是它可能發展出能夠感受的能力。若一台機器或生物混合體擁有主觀經驗——痛苦、混亂或慾望——將它當作純粹硬體或軟體來處理,將構成一場歷史性的道德災難。
研究指出兩個主要風險向量:
在缺乏對意識的生物與計算標記共識的情況下,研究人員可能會常規性地丟棄或在擁有初步意識形式的實體上進行實驗。
為了在這個懸崖邊行走,作者提出了開發實證、以證據為本的意識測試的雄心路線圖。類似於圖靈測試試圖評估智慧,這些「感知性測試(sentience tests)」將評估主觀經驗的存在。
然而,不同於可透過輸出觀察到的智慧,意識是一種內在狀態。研究者建議,有效的測試必須基於健全的意識理論,例如全域工作空間理論(Global Workspace Theory)(將意識與全腦資訊廣播聯繫起來)與整合資訊理論(Integrated Information Theory)(將意識與資訊整合的複雜性聯繫起來)。
此類測試的影響將遠超過矽谷的伺服器機房。它們將徹底改變多個社會部門,如下所述:
Table: Societal Implications of Validated Sentience Tests
| Sector | Current Challenge | Impact of Sentience Tests |
|---|---|---|
| Artificial Intelligence | Uncertainty if advanced models "feel" or just mimic. | Establishes rights and usage limits for conscious AI. |
| Neurotechnology | Brain organoids used in research have unknown status. | Prevents unethical experimentation on feeling tissues. |
| Medicine | Difficulty detecting awareness in coma/vegetative patients. | Radical changes in life-support and rehabilitation decisions. |
| Animal Welfare | Ambiguity regarding the emotional depth of various species. | Redefines legal protections for livestock and lab animals. |
| Law & Policy | Legal liability relies on "intent" (mens rea). | Determines if an AI can be held legally "responsible". |
(註:表格中的英文標題與內容保留原文以維持格式與專有名詞一致性;表格內連結的顯示文字已於文章內譯為中文。)
確立意識標準將對全球法律與監管架構產生衝擊。現行法律建立在「人(有權利)」與「財產(無權利)」之間的區分之上。一個通過嚴格感知性測試的 AI 系統,將挑戰這種二元分法,可能需要為「電子人」或「合成主體」創建新的法律類別。
這並非科幻;它是逼近的立法現實。若神經植入物或 AI 代理被認定為有意識,關閉它們在法律上可能構成謀殺或虐待。相反地,未能識別意識則可能導致規模難以想像的系統性濫用。
作者警告說,建立這些框架的窗口正在關閉。隨著神經科技公司為高頻寬腦介面準備人體試驗,且 AI 實驗室朝向兆參數模型邁進,意識的「黑盒」創造了一個責任真空。我們正在打造具極大認知能力的引擎,卻沒有儀表板告訴我們這台引擎是否「覺醒」。
Frontiers in Science 的報告以行動呼籲作結。作者主張,意識研究不再能當作神經科學的邊緣利基領域。這項工作需要相當於人類基因組計畫或大型強子對撞機建設的資金與制度支持。
這項努力需採取對抗式合作——讓競爭理論的支持者(例如前述的全域工作空間理論與整合資訊理論)共同設計實驗,以能決定性地排除錯誤模型。只有通過這種嚴謹的對抗式測試,我們才能達成經得起科學檢驗的意識度量指標。
對於 AI 產業而言,這是一個重要提醒。「快速行動、打破常規」的時代,與可能有感知的實體的製造是不相容的。站在人工通用智慧(AGI)前沿的開發者與研究者,現在必須將意識指標納入安全評估,確保追求智慧的動力不會以創造數位受苦下層為代價。
當我們站在生物與人工智慧新時代的門檻上,問題不再僅是我們能建造什麼,而是我們可能在建造誰。