
一項新的調查引發了針對 Google 實施 AI 總覽(AI Overviews)的重大批評,特別是關於這家搜尋巨頭如何處理醫療資訊。根據《衛報》(The Guardian)的一份報告,當用戶首次看到 AI 生成的醫療建議時,Google 未能顯示關鍵的安全警告。這種疏漏引起了 AI 安全專家和醫療專業人士的警覺,他們認為目前的設計將無縫的用戶體驗置於患者安全之上,可能讓用戶接觸到誤導性或危險的健康資訊。
隨著生成式 AI(Generative AI)持續重塑數位資訊的格局,將生成模型整合到搜尋引擎中一直是創新的焦點。然而,這起最新的爭議凸顯了 AI 技術的快速部署與醫療保健等敏感領域所需的嚴格安全標準之間持續存在的緊張關係。
批評的核心源於 Google AI 總覽的用戶介面設計。當用戶查詢健康相關話題時——從中風的症狀檢查到關於心臟病發作的問題——AI 生成的摘要會出現在搜尋結果的最頂部,通常會擠佔傳統的網頁連結。
《衛報》的調查顯示,在初始螢幕(即「首屏」(above the fold))上,沒有可見的聲明警告用戶該資訊是由 AI 生成的且可能不準確。要看到任何安全警告,用戶必須主動點擊「顯示更多」(Show more)按鈕與介面互動。即使在那時,免責聲明也沒有醒目地顯示在展開文本的頂部。相反,它位於生成內容的最底部,以較小、較淡的字體呈現,極易被忽視。
隱藏的免責聲明寫道:「這僅供參考。如需醫療建議或診斷,請諮詢專業人士。AI 回覆可能包含錯誤。」
批評者認為,這種設計假設用戶具備在日常網頁搜尋中鮮少存在的審查水平。當用戶滾動到展開視圖的底部時,他們已經閱讀了 AI 的摘要,可能在沒有看到系統容易出錯的警示情況下,就已將其接受為事實。
將 健康聲明 埋藏起來的決定遭到了 AI 倫理和醫學研究領域領先人士的嚴厲斥責。這些專家的共識是,缺乏即時的摩擦力——例如醒目的警告標籤——會鼓勵用戶盲目信任機器生成的輸出。
麻省理工學院(MIT)助理教授兼技術專家 Pat Pataranutaporn 強調了這種設計選擇的雙重危險。他指出,眾所周知 AI 模型會表現出「奉承行為」(sycophantic behavior),優先考慮滿足用戶查詢的答案,而非嚴格的準確性。在醫療保健背景下,這種討好用戶的欲望可能是災難性的。
「首先,即使是當今最先進的 AI 模型仍然會產生錯誤資訊的幻覺... 在醫療保健背景下,這可能真的很危險,」Pataranutaporn 表示。他進一步解釋說,免責聲明是中斷自動信任並引發批判性思考所必需的「干預點」。如果沒有它們,用戶可能會誤解症狀或未能提供必要的背景資訊,導致 AI 生成無關或有害的建議。
倫敦瑪麗王后大學負責任 AI 教授 Gina Neff 呼應了這些擔憂,認為問題是結構性的而非偶然的。「AI 總覽是為速度而非準確性而設計的,」Neff 觀察到,這暗示了對流暢用戶介面的追求已經損害了醫療查詢所必需的安全協議。
AI 總覽位置的心理影響不容小覷。透過將 AI 摘要置於搜尋結果頁面的絕對頂部,Google 隱含地傳達了該內容是最具相關性和權威性的答案。
史丹佛大學醫學 AI 與影像中心研究員 Sonali Sharma 指出,這種放置方式創造了一種「安全感」。在焦慮時刻尋求快速答案的用戶(例如調查突然出現的症狀時)很可能會閱讀初始摘要後就此停止。這種被稱為「滿意化」(satisficing)的行為,意味著用戶會滿足於他們遇到的第一個可接受的答案。
「主要問題在於這些 Google AI 總覽 出現在搜尋頁面的最頂端,並且通常提供感覺像是完整的答案,」Sharma 解釋道。「除非你已經熟悉該主題,否則很難判斷什麼是準確的,什麼是不準確的。」
如果免責聲明隱藏在點擊和滾動之後,對於大多數依賴初始快照的用戶來說,它實際上並不存在。
下表將 Google 目前的設計選擇與患者安全倡導者和 AI 倫理學家的建議進行了對比。
| Google 目前的實施方式 | 安全最佳實踐 | 潛在風險因素 |
|---|---|---|
| 免責聲明隱藏在「顯示更多」按鈕後 | 免責聲明在加載時立即顯示 | 用戶可能在未看到警告的情況下採取建議 接受錯誤資訊的風險高 |
| 警告位於文本底部 | 警告置於頂部(頁首) | 「滿意化」行為導致遺漏警告 關鍵背景資訊丟失 |
| 小號、淺灰色字體 | 與正文大小/粗細相同或加粗 | 視覺層級削弱了安全的重要性 視障人士更難閱讀 |
| 被動(用戶必須點擊才能看到) | 主動(始終可見) | 依賴用戶操作來揭示安全資訊 假設用戶具有高度勤勉性 |
針對批評,Google 堅持認為其系統設計是負責任的。該公司發言人表示,AI 總覽「鼓勵人們尋求專業醫療建議」,並經常在摘要文本本身中提到需要就醫。該公司否認貶低安全性,辯稱內容旨在提供資訊。
然而,這並不是 Google 第一次因其 AI 搜尋功能面臨抵制。今年 1 月,另一項調查顯示 Google 的 AI 正在生成錯誤且具誤導性的健康資訊,導致該公司刪除了某些醫療查詢的 AI 摘要。儘管進行了這些調整,但隱藏免責聲明問題的持續存在表明,底層的設計理念——優先考慮簡潔、無礙的介面——仍然高於顯性的安全摩擦。
圍繞 Google AI 總覽的爭議觸及了人工智慧部署中的一個核心問題:E-E-A-T(經驗、專業、權威與信賴性)的概念。在醫學領域,信賴性至關重要。當搜尋引擎充當醫療建議的中介時,它承擔了與醫學文獻出版商相當的責任水平。
血癌慈善機構 Anthony Nolan 的患者資訊負責人 Tom Bishop 呼籲對介面進行緊急更改。他認為對於健康查詢,免責聲明應該是「你看到的第一件事」,並且字體大小應與正文一致。
「我們知道錯誤資訊是一個真正的問題,但當涉及到健康錯誤資訊時,它潛在的危險性非常大,」Bishop 說。他的評論反映了對科技巨頭對其創造的「資訊架構」負責的日益增長的需求。僅僅在系統中的某個地方擁有正確的數據是不夠的;數據的呈現方式必須考慮到人類心理和出錯的可能性。
隨著 AI 繼續深入融入我們的日常生活,我們獲取資訊的機制正在經歷根本性的轉變。Google 在平衡 AI 總覽的流暢感與醫療安全的混亂現實之間所做的掙扎,為我們敲響了警鐘。
對於 Creati.ai 而言,這起事件強調了「設計安全」(safety by design)的必要性。免責聲明和護欄不應是事後才想到的補救措施或隱藏的法律文本;它們必須是用戶體驗中不可或缺的一部分,尤其是在涉及健康和安全時。在這些警告從陰影中走出並被置於核心位置之前,用戶仍面臨將算法猜測誤認為醫生診斷的風險。