
在人工智慧(Artificial Intelligence,AI)時代,一項驚人的發現突顯了數位隱私的脆弱性,一起大規模數據洩漏事件威脅了數百萬用戶的個人資訊。熱門行動應用程式 Chat & Ask AI(可在 Google Play 和 Apple App Store 下載)被發現洩漏了屬於超過 2,500 萬名用戶的約 3 億條私人訊息。
此事件提醒人們,與第三方 AI 「外殼」應用程式(wrapper applications)相關的安全風險——這些服務為 ChatGPT 或 Claude 等主要 AI 模型提供界面,但透過其獨立的基礎設施處理用戶數據。
該漏洞由一名名為「Harry」的獨立安全研究員發現,他識別出該應用程式後端基礎設施中的一個關鍵缺陷。根據調查結果,暴露的資料庫不僅僅是匿名日誌的集合,還包含高度敏感、可識別身份的對話歷史記錄。
洩漏規模巨大,影響了遍布全球的龐大用戶群。透過分析約 60,000 名用戶和超過 100 萬條訊息的樣本集,研究人員能夠確認暴露的深度。
洩漏事件關鍵數據:
| 指標 | 詳細資訊 |
|---|---|
| 洩漏訊息總數 | 約 3 億條 |
| 受影響用戶 | 超過 2,500 萬 |
| 洩漏數據類型 | 完整聊天日誌、時間戳記、模型設定 |
| 漏洞來源 | Firebase 後端配置錯誤 |
| 應用程式發行商 | Codeway |
被洩漏的數據描繪了用戶與 AI 互動的令人擔憂的圖景。與公開的社交媒體貼文不同,這些互動通常充當私人日記或治療課程。據報導,暴露的日誌包含深刻的個人內容,從心理健康困擾和自殺念頭,到關於藥物製造和駭客技術的非法詢問。
此次安全失誤的核心在於 Firebase 後端配置錯誤。Firebase 是 Google 收購的廣泛使用的行動和 Web 應用程式開發平台,以其易用性和即時資料庫功能而聞名。然而,其便利性往往導致疏忽。
在此特定案例中,Chat & Ask AI 的開發者未能對其資料庫實施適當的身分驗證規則。
為何「外殼」應用程式具有高風險:
這次洩漏最令人不安的方面不是技術缺陷,而是涉及數據的性質。隨著 AI 變得更加對話化和具備共情能力,用戶越來越多地將這些聊天機器人視為知己。這種現象通常被稱為 AI 親密度(AI intimacy),導致用戶放下戒備,分享他們絕不會透露給另一個人的資訊,更不用說發布在網上了。
洩漏中識別出的敏感數據類型:
安全專家認為,涉及 AI 聊天日誌的數據洩漏與信用卡或密碼洩漏有本質上的不同。你可以更改信用卡號碼;但你無法「更改」一段關於你內心深處恐懼或病史的對話。一旦這些數據被不法分子抓取並存檔,就可能被用於高度針對性的社交工程攻擊、勒索或肉搜(doxxing)。
在 Creati.ai,我們透過 Google 的 E-E-A-T(經驗、專業知識、權威性和信任度)標準來分析此類事件。這次洩漏代表了應用程式發行商 Codeway 在**信任度(Trustworthiness)**方面的災難性失敗。
相比之下,主要的 AI 供應商(OpenAI、Google、Anthropic)都維持著嚴格的安全認證(如 SOC 2 合規性)。這一事件突顯了第一方使用(直接使用 ChatGPT)與第三方使用(使用外殼應用程式)之間的差距。
鑑於此次洩漏,Creati.ai 建議 「Chat & Ask AI」及類似第三方 AI 應用程式的用戶立即採取行動。
給受害者的立即步驟:
AI 使用最佳實踐:
「Chat & Ask AI」洩漏事件對整個 AI 行業敲響了警鐘。在我們衝刺將人工智慧整合到生活各個方面的同時,絕不能讓興奮蓋過安全。對於開發者來說,這是關於後端配置和數據治理至關重要性的一課。對於用戶來說,這是一個嚴酷的提醒:在數位世界中,便利往往是以隱私為代價的。
在 Creati.ai,我們將繼續關注此情況,並在獲得有關 Codeway 的回應和潛在監管行動的更多資訊時提供更新。
問:我可以檢查我的數據是否在此次洩漏中被曝光嗎?
答:目前,針對此次特定洩漏尚無公開可搜尋的資料庫。然而,如果數據在暗網上廣泛流傳,像是「Have I Been Pwned」之類的服務可能會更新其記錄。
問:是否所有 AI 應用程式都不安全?
答:不是。主要的官方第一方應用程式通常具有強大的安全性。對於可能不遵循安全最佳實踐的不知名第三方「外殼」應用程式,風險顯著更高。
問:什麼是 Firebase 配置錯誤?
答:當開發者未能設定「規則」來告知資料庫誰被允許讀取或寫入數據時,就會發生這種情況。由於預設或錯誤,這些規則有時會保持開放狀態,允許互聯網上的任何人存取數據。