
數位生態正準備迎接劇烈變動。多年來,社群媒體使用者已學會辨識自動化影響作業的笨拙痕跡:成千上萬次重複的相同推文、空白的頭像,以及僵硬、機械化的語法。但期刊 Science 的研究者發出的新警告顯示,這些日子已經過去。我們正進入「惡意 AI 群體」的時代——由複雜的大型語言模型(Large Language Model,LLM)驅動的角色網絡,能以驚人的擬真度模仿人類行為。
在 Creati.ai,我們長期監測生成式 AI(Generative AI)與數位文化的交會。最新發現顯示,我們面對的已不只是簡單的垃圾機器人,而是協調有序的 AI 代理軍隊,它們能思考、適應並説服他人的能力遠超一般人。
由 SINTEF Digital 的 Daniel Schroeder 與倫敦聖喬治大學(City St George’s, University of London)的 Andrea Baronchelli 等專家所領導的這項研究,概述了數位戰爭的一次根本升級。不同於依賴大量重複的傳統殭屍網路(botnets),這些次世代群體利用先進大型語言模型(LLM)的能力來創造「協調社群」。
這些 AI 代理擁有不同的個性、記憶和寫作風格。它們不只是複製並貼上中心訊息;它們即興創作。如果某個政治操作人想推動某個敘事,群體不會只是刷標語。一個代理可能發表支持該觀點的動人個人軼事,另一個可能提出「數據驅動」的邏輯論證,而第三個則扮演懷疑者,最後在討論串中被其他人「說服」。
危險之處在於群體維持持久性與上下文的能力。這些代理可以追蹤數日或數週的對話,回憶先前互動以建立與人類使用者的信任。它們的運作不像軟體,更像一個協作即興表演團隊,能夠即時回應人類情緒與反駁。這種動態能力使得現行偵測方法幾乎無法將它們與真實人類社群區分開來。
也許近期實驗中最令人震驚的統計,是這些系統的強大說服力。研究中引用的實驗顯示,AI 聊天機器人在試圖改變意見時,可能比人類更具說服力,達到 3 到 6 倍。
這種「說服差距(Persuasion Gap)」源自 AI 可存取龐大資料集,且不會有認知疲勞。人類辯士可能會疲倦、情緒化或忘記關鍵事實,但 AI 代理能立即調用完美的反駁,並針對目標的族群與心理輪廓量身訂做。
這些群體的主要目標是製造研究者所稱的 合成共識。人類在進化上被設計成信任多數觀點——即「群眾智慧」。當我們看到數十個看似獨立的人在某議題上達成共識時,我們本能地認為該主張有其合理性。
AI 群體劫持了這一認知捷徑。透過在留言區灌入多樣、看似不同但卻漸趨一致的聲音,它們製造出公眾支持的幻象。這不只誤導個別人;還會扭曲整個平台的社會規範感,讓邊緣的極端觀點看似主流,或透過製造噪音淹沒合法的異議聲音。
威脅不僅止於政治操控,也延伸到直接的數位壓制。研究指出了「合成騷擾(synthetic harassment)」的可能性,群體可被部署去讓特定目標噤聲,例如記者、活動家或異議者。
在此情境中,目標不只是被辱罵的垃圾訊息轟炸。對方可能面臨大量偽關切(concern trolling)、複雜的煤氣燈操作(gaslighting)、以及引用其個人歷史的威脅——所有內容都由系統自動產生,規模之大是任何人類網路龍頭亦無法匹敵。面對數千個敵對、智慧且無情的「人」,心理壓力的代價往往會迫使目標完全退出公共領域。
為了解這一演進的規模,將這些新型代理與我們過去習慣的自動系統對照是有幫助的。
Table: The Evolution of Automated Influence
| Feature | Traditional Botnets | Next-Gen AI Swarms |
|---|---|---|
| Core Technology | Simple Scripts / Pre-written Text | 大型語言模型(LLMs) |
| Behavior | Repetitive, high-volume spam | Adaptive, context-aware dialogue |
| Identity | Generic, often blank profiles | Distinct personas with backstory/memory |
| Coordination | Centralized "Copy-Paste" | Decentralized "Mission-Based" Improvisation |
| Detection Difficulty | Low (pattern matching) | High (behavioral analysis required) |
| Primary Goal | Amplify visibility (Likes/Retweets) | Manufacture "Synthetic Consensus" & Trust |
研究者主張,依賴平台去單純「封鎖機器人」的時代已經結束。因為這些群體行為極度類人,激進的過濾措施不可避免地會審查到真實使用者,從而引發反彈。相反地,該研究提出一套基於「來源(provenance)」與「成本(cost)」的防禦策略。
如果我們無法完美偵測每一個 AI 代理,就必須讓大規模運行它們變得過於昂貴。這可能包括對高影響力帳號要求「身份驗證(proof-of-personhood)」憑證,或對內容施加密碼學浮水印。此外,研究者建議設立一個「AI 影響觀測站(AI Influence Observatory)」——一個全球分散的網絡,用以追蹤與分析協調行為模式,而非著眼於單一貼文。
在 Creati.ai,我們認為這代表一個關鍵的轉捩點。創造的工具正在變成操控的工具。隨著 AI 群體開始模糊真實公共論述與演算法化戲劇之間的界線,辨別真相與「合成共識」的能力可能成為數位時代最寶貴的技能。對於 社群媒體 平台來說,挑戰已不再僅是內容審查;而是保存人類現實本身。