
這是人工智慧(AI)治理的一個里程碑,史丹佛大學審議民主實驗室(Deliberative Democracy Lab)成功召開了有史以來首個關於 AI 代理人的「全行業論壇」(Industry-Wide Forum)。這項倡議標誌著與傳統自上而下產品開發的重大轉向,匯聚了 Meta、Microsoft、DoorDash、Cohere、Oracle 和 PayPal 等激烈的技術競爭對手,共同傾聽知情的公眾意見。該論壇吸引了來自美國和印度的 503 名參與者,利用史丹佛大學嚴格的「審議式民調」(Deliberative Polling)方法,揭示了普通公民希望 AI 代理人如何表現,特別是在高風險決策、隱私和文化差異方面。
隨著 AI 代理人從被動的聊天機器人演變為能夠代表用戶進行推理、規劃和執行任務的主動助手,該行業面臨著嚴重的信任鴻溝。此次論壇的發現為將這些自主系統與社會價值觀對齊提供了第一個具體的路線圖,強調了公眾在敏感領域對人類監督的明確偏好。
標準的民意調查通常捕捉基於有限資訊的即時判斷。相比之下,審議民主實驗室採用的方法旨在了解如果公眾有機會研究問題並詢問專家,他們會怎麼想。
審議民主實驗室主任 James Fishkin 強調了這種方法的變革性質。「透過讓公眾積極參與塑造 AI 代理人的行為,我們不只是在建立更好的技術——我們還在建立信任,並確保這些強大的工具與社會價值觀保持一致,」Fishkin 表示。
該過程於 2025 年 11 月使用史丹佛線上審議平台進行,涉及來自美國和印度的代表性公民樣本。參與者獲得了由學術界和民間社會夥伴(包括集體智慧專案(Collective Intelligence Project)和民主與技術中心(Center for Democracy and Technology))審核的平衡簡報材料。隨後,他們在敲定觀點之前參與了小組討論和專家問答環節。這一嚴格的過程確保了所收集的回饋反映了深思熟慮,而非對媒體敘事的下意識反應。
審議結果描繪了一幅細緻的公眾情感圖景。雖然公眾對 AI 代理人處理日常低風險任務表現出廣泛的熱情,但參與者對高風險環境中的「代理型」AI 表達了極大的謹慎。
低風險和高風險應用之間的區別成為公眾接受度的定義邊界。對於涉及醫療診斷或金融交易的任務,參與者猶豫是否要授予 AI 代理人完全的自主權。然而,這種猶豫並非對技術的拒絕,而是一種取決於特定保障措施的有條件接受。確定的主要要求是「人機協同」機制——特別是用戶在代理人最終確定操作之前審查並批准該操作的能力。
下表總結了在不同層級的 AI 部署中,參與者群體觀察到的核心態度:
| 應用類別 | 公眾情感 | 必要的保障措施 |
|---|---|---|
| 低風險日常任務 | 高度讚同 | 基本透明度和性能監測 |
| 高風險(金融/健康) | 謹慎 / 有條件接受 | 最終行動前強制人工批准 |
| 文化與社交互動 | 偏好適應性 | 明確的用戶規範輸入而非假設 |
| 企業數據處理 | 安全第一的心態 | 嚴格的數據隔離和隱私協定 |
這種分層的信任方法表明,像 DoorDash 和 Microsoft 這樣的開發者必須設計根據任務背景改變其自主程度的介面。對於購物代理人,錯誤的雜貨更換只是煩惱;對於金融代理人,錯誤的轉帳則是災難性的。公眾期望軟體能夠識別這種差異,並相應地暫停以尋求確認。
論壇中最具洞察力的發現之一是公眾對文化適應性 AI 的立場。隨著 AI 模型在全球部署,存在將一套單一的文化規範或假設強加給多元化用戶群體的風險。
美國和印度的參與者都拒絕 AI 代理人對社會或文化規範做出假設的想法。相反,對於「文化適應型」代理人,公眾給予了強烈支持,這些代理人會明確詢問用戶的偏好,而不是進行推斷。這一發現挑戰了當前「無縫」AI 設計的趨勢,表明用戶更喜歡一點點摩擦——被詢問偏好——而不是錯誤的文化假設。這對於像 Meta 這樣平台服務於全球數十億不同文化背景用戶的公司具有深遠的影響。
主要行業參與者的參與凸顯了人們日益認識到 AI 安全和治理無法封閉解決。Cohere 作為企業 AI 領域的領導者,與 DoorDash 和 Meta 等消費巨頭一同出席,標誌著跨部門對基準標準的承諾。
Cohere 的首席 AI 官 Joelle Pineau 指出,論壇的結果強化了公司內部的重點。「這些初步審議得出的觀點強調了我們在 Cohere 關鍵關注領域的重要性:安全、隱私和保障措施,」Pineau 說道。她補充說,公司期待加強行業標準,特別是對於處理敏感數據的企業代理人。
Meta 的 AI 政策副總裁 Rob Sherman 呼應了這一觀點,認為這種合作對於產品的相關性至關重要。「當技術植根於人們的反饋和期望時,它能更好地為人服務,」Sherman 解釋道。他強調,該論壇展示了各公司如何協作,以確保 AI 代理人能夠響應多樣化的用戶需求,而不是強制執行一刀切的模型。
審議過程中反覆出現的一個主題是「知識差距」。參與者始終強調需要更好的公眾教育,了解 AI 代理人究竟是什麼以及它們的能力。
討論強調,透明度——標記 AI 內容或披露代理人何時在行動——是必要的,但還不夠。根據參與者的說法,真正的信任源於對系統的能力和局限性的理解。這表明未來的 AI 產品可能需要包含更強大的引導和教育組件,超越簡單的「服務條款」,轉向解釋代理人決策邏輯的互動式教程。
史丹佛論壇並非一次性活動,而是科技行業與公眾之間持續對話的開始。審議民主實驗室副主任 Alice Siu 宣佈,該倡議將於今年晚些時候擴大。
「2026 年全行業論壇擴大了我們的討論範圍,並進一步深化了我們對公眾對 AI 代理人態度的理解,」Siu 表示。隨著更多行業合作夥伴計劃加入下一輪,目標是建立一個持續的反饋循環,讓公眾審議直接為世界上最強大的 AI 系統開發週期提供資訊。
對於 AI 行業來說,這代表了從「快速行動,打破常規」到「深思熟慮,建立信任」的轉向。透過將公眾審議整合到研發過程中,Microsoft、Meta 和 DoorDash 等公司承認,AI 代理人的成功不僅取決於程式碼,還取決於同意。