
在數位內容傳播速度遠快於事實查核能跟上的時代,一起關於明尼阿波利斯近期槍擊事件的令人不安事件,把「實相冷漠(Reality Apathy)」的危機凸顯出來。原本在社群平台(包括 X(前稱 Twitter))上被觀看超過九百萬次的一張看似清晰、呈現混亂場面的影像,後來被證實是經由 AI 強化的偽造圖像。當一位美國參議員在參議院發言時展示了這張經數位修改的圖像,這場爭議便從網路討論升高到政府最高層,凸顯出政治論述與新聞消費中一個危險的新先例。
事件聚焦於聯邦探員在明尼阿波利斯開槍致死的重症監護室護理師 Alex Pretti。雖然槍擊本身是一個真實且可怖的事件,並被旁觀者以低畫質錄影捕捉,但在網路上引發熱傳的那張影像並非原始畫面。相反地,那是一張經由用於升頻解析度的人工智慧工具「還原」後的版本。結果是一張乍看像是高畫質的圖片,但其中包含了怪誕的數位幻覺──例如一名探員缺了頭顱、另一隻腿與武器融為一體──模糊了紀錄與虛構之間的界線。
該張影像示範了一種日益常見的 AI 錯誤資訊 類型:「善意」的修改。與旨在陷害無辜者的惡意深偽(deepfake)不同,這張圖片很可能是由一位使用者試圖「修復」顆粒狀影像以使其更清晰時產生的。然而,生成式AI(Generative AI)並不只是銳化像素;它會預測並發明像素。
當 Pretti 槍擊案的低解析度截圖被輸入升頻軟體時,演算法嘗試依據統計機率填補缺失細節,而非基於光學真實。該軟體在原本不存在的地方「幻覺」出高保真材質。
數位鑑識專家指出了洩漏該圖像合成性的明顯異常:
這些錯誤,常被稱為人工痕跡,卻被數百萬名情緒激動的觀眾忽視,他們將該圖像當作事件殘酷程度的定論證據來分享。AI 提供的高畫質「光澤」賦予影像虛假的權威性,繞過了人們對顆粒影片通常會抱持的自然懷疑。
這種數位扭曲的影響在參議員 Dick Durbin 試圖譴責暴力時,於參議院發言中展示了該張經 AI 強化的影像,達到臨界點。此一時刻標示了立法辯論中證據審核流程的重大失敗。
Durbin 參議員的辦公室隨後發表道歉,承認他們是從網路上取用該圖像,卻未核實其真實性或注意到數位異常。「我們的團隊使用了一張在網路上廣為流傳的照片。遺憾的是,工作人員直到事後才發現該圖像被稍作修改,」一位發言人表示。
然而,傷害是雙重的。首先,這不小心提供了批評者藉口,試圖以此將實際槍擊案斥為「假新聞」,利用了所謂的 說謊者紅利(Liar's Dividend)──當存在深偽時,惡意行為者可以藉此將真實證據稱為捏造。其次,這顯示即便是高階政府官員,也缺乏區分原始新聞與 AI 生成內容的工具或識讀能力。
在明尼阿波利斯抗議事件的延伸影響中,這並非孤立事件。在另一場爭議中,官方的白宮 X 帳號發布了一張示威者 Nekima Levy Armstrong 的照片。鑑識結果顯示該影像經過數位修改,被加上了臉上的淚痕,誇大了她的痛苦。不論這種操作是透過簡單的影像編輯軟體或是生成式 AI 完成,均使得抗議的視覺紀錄更加混淆,成為彼此競爭實相的戰場。
要理解為何此區別重要,就必須分清傳統照片編輯與生成式 AI「強化」之間的差異。傳統方法可能調整亮度或對比,影響的是資料的「呈現」。而生成式 AI 則改變了資料「本身」。
以下表格列出在明尼阿波利斯案中,真實新聞攝影與 AI 生成影像之間的關鍵差異:
Table: Authentic Journalism vs. AI-Enhanced Imagery
| Feature | Authentic Photojournalism | AI-Enhanced/Upscaled Imagery |
|---|---|---|
| Pixel Origin | 由光學感測器(相機)捕捉 | 由演算法預測並生成 |
| Detail Source | 場景反射的光 | 來自訓練資料的統計模式 |
| Anomalies | 模糊、顆粒、低光噪點 | 額外的手指、物體融合、不合邏輯的幾何形狀 |
| Intent | 記錄現實「原本的樣貌」 | 讓影像「看起來更好」或更高解析度 |
| Verification | Metadata、原始檔案可取得 | 常常會移除 metadata,來源難以追溯 |
Pretti 影像的病毒式散播凸顯了像 X 這類平台面臨的龐大挑戰。雖然 X 的「Community Notes」功能最終確實對白宮修改過的 Armstrong 圖像做了標註,但那張經 AI 升頻的槍擊畫面仍在網路上流傳數小時,累積了數百萬次觀看,修正訊息才來得及追上。
根據錯誤資訊專家的說法,危險在於**「實相冷漠(Reality Apathy)」**的出現。當使用者被真實的、稍微改動的與完全捏造的影像混合轟炸時,為了驗證真相所需的認知負擔變得過高。最終,使用者可能會停止嘗試分辨真偽,而退回到部落式的信息孤島,只相信能證實其既有偏見的影像。
知名數位鑑識專家 Hany Farid 教授就明尼阿波利斯的影像指出:「在戰霧中,細節很容易被誤認。但當 AI 進入那層霧時,它不只是使真相模糊──它會改寫真相。」用於升頻 Pretti 影像的工具廣為可得,且常被行銷為提升生產力的工具,意味著製造此類誤導內容的門檻實際上為零。
明尼阿波利斯事件為 Creati.ai 社群和更廣泛的科技圈提供了一個陰沉的案例研究。它顯示 AI 錯誤資訊的威脅不總是來自惡意的「機器農場」或國家行為者從頭製作深偽。很多時候,來源是善意的市民使用手機上的「增強」按鈕,卻不自覺地在改寫歷史。
對新聞室與政府機構而言,教訓是立即且明確的:在社群媒體上找到的視覺證據再也不能僅憑表面信任。像 C2PA(Coalition for Content Provenance and Authenticity,內容來源與真實性聯盟) 這類為檔案附加數位來源數據的標準的實施,正變得刻不容緩。在這些標準普遍採用之前,經訓練能辨認「無頭探員」與「熔化的槍械」的人眼,仍然是阻止我們共同實相被侵蝕的最後防線。
當我們向前邁進時,問題已不再只是「這張照片是真實的嗎?」而是「這張照片有多少部分是由機器所預測的?」如同在參議院講台上所見,答案可能對民主造成深遠影響。