AI News

「Chat & Ask AI」應用程式發生大規模數據洩漏:3 億條訊息遭曝光

在人工智慧(Artificial Intelligence,AI)時代,一項驚人的發現突顯了數位隱私的脆弱性,一起大規模數據洩漏事件威脅了數百萬用戶的個人資訊。熱門行動應用程式 Chat & Ask AI(可在 Google Play 和 Apple App Store 下載)被發現洩漏了屬於超過 2,500 萬名用戶的約 3 億條私人訊息

此事件提醒人們,與第三方 AI 「外殼」應用程式(wrapper applications)相關的安全風險——這些服務為 ChatGPT 或 Claude 等主要 AI 模型提供界面,但透過其獨立的基礎設施處理用戶數據。

洩漏範圍

該漏洞由一名名為「Harry」的獨立安全研究員發現,他識別出該應用程式後端基礎設施中的一個關鍵缺陷。根據調查結果,暴露的資料庫不僅僅是匿名日誌的集合,還包含高度敏感、可識別身份的對話歷史記錄。

洩漏規模巨大,影響了遍布全球的龐大用戶群。透過分析約 60,000 名用戶和超過 100 萬條訊息的樣本集,研究人員能夠確認暴露的深度。

洩漏事件關鍵數據:

指標 詳細資訊
洩漏訊息總數 約 3 億條
受影響用戶 超過 2,500 萬
洩漏數據類型 完整聊天日誌、時間戳記、模型設定
漏洞來源 Firebase 後端配置錯誤
應用程式發行商 Codeway

被洩漏的數據描繪了用戶與 AI 互動的令人擔憂的圖景。與公開的社交媒體貼文不同,這些互動通常充當私人日記或治療課程。據報導,暴露的日誌包含深刻的個人內容,從心理健康困擾和自殺念頭,到關於藥物製造和駭客技術的非法詢問。

技術解析:Firebase 配置錯誤

此次安全失誤的核心在於 Firebase 後端配置錯誤。Firebase 是 Google 收購的廣泛使用的行動和 Web 應用程式開發平台,以其易用性和即時資料庫功能而聞名。然而,其便利性往往導致疏忽。

在此特定案例中,Chat & Ask AI 的開發者未能對其資料庫實施適當的身分驗證規則。

漏洞運作原理

  1. 大門敞開: 資料庫權限被設定為允許未經身份驗證或身份驗證不當的存取。這意味著任何擁有正確 URL 或了解應用程式結構的人,都可以在沒有有效憑證的情況下「讀取」數據。
  2. 缺乏加密: 雖然數據在傳輸過程中可能已加密(HTTPS),但可存取資料庫存儲桶中靜態(at rest)的數據對於任何能存取端點的人來說似乎都是可讀的。
  3. 「外殼」架構:該應用程式充當「外殼」,實際上是扮演用戶與 OpenAI(ChatGPT)、Anthropic(Claude)或 Google(Gemini)等主要大語言模型(Large Language Model,LLM)供應商之間的中間人。雖然智慧的核心運作是由這些巨頭完成的,但對話歷史的儲存是由應用程式自己的伺服器處理的——在這種情況下,是不安全的 Firebase 實例。

為何「外殼」應用程式具有高風險:

  • 獨立的安全標準: 與擁有龐大安全團隊的大型科技公司不同,外殼應用程式通常由小型團隊或個人開發者構建,他們可能缺乏嚴格的安全協議。
  • 數據保留政策: 這些應用程式通常會儲存用戶查詢以改善其自身服務,或僅僅是為了維持聊天記錄,從而創建了一個新的、脆弱的敏感數據庫。
  • 身份驗證缺口: 將第三方 API 與用戶登入整合通常會產生複雜性,容易出現像 Chat & Ask AI 中那樣的安全漏洞。

人力成本:AI 親密度與隱私

這次洩漏最令人不安的方面不是技術缺陷,而是涉及數據的性質。隨著 AI 變得更加對話化和具備共情能力,用戶越來越多地將這些聊天機器人視為知己。這種現象通常被稱為 AI 親密度(AI intimacy),導致用戶放下戒備,分享他們絕不會透露給另一個人的資訊,更不用說發布在網上了。

洩漏中識別出的敏感數據類型:

  • 心理健康數據: 關於憂鬱、焦慮和自我傷害的詳細對話。
  • 個人身份識別: 雖然聊天內容本身是主要的洩漏點,但長對話歷史中的上下文線索可以輕易揭示用戶的真實身份、位置和工作場所。
  • 職業秘密: 用戶經常使用 AI 進行工作相關的腦力激盪,這可能會暴露專有的商業策略或代碼。
  • 非法活動: 與非法活動相關的查詢,雖然法律上很複雜,但會讓用戶面臨勒索或法律審查。

安全專家認為,涉及 AI 聊天日誌的數據洩漏與信用卡或密碼洩漏有本質上的不同。你可以更改信用卡號碼;但你無法「更改」一段關於你內心深處恐懼或病史的對話。一旦這些數據被不法分子抓取並存檔,就可能被用於高度針對性的社交工程攻擊、勒索或肉搜(doxxing)。

行業反應與 E-E-A-T 分析

在 Creati.ai,我們透過 Google 的 E-E-A-T(經驗、專業知識、權威性和信任度)標準來分析此類事件。這次洩漏代表了應用程式發行商 Codeway 在**信任度(Trustworthiness)**方面的災難性失敗。

  • 信任: 用戶含蓄地信任該應用程式會處理其私人想法,並假設其具備實際並不存在的安全標準。
  • 專業知識: 未能保護標準 Firebase 資料庫的安全,顯示開發團隊缺乏基本的網絡安全專業知識。
  • 權威: 發行商的沉默(Codeway 尚未回應置評請求)進一步侵蝕了權威和公眾信心。

相比之下,主要的 AI 供應商(OpenAI、Google、Anthropic)都維持著嚴格的安全認證(如 SOC 2 合規性)。這一事件突顯了第一方使用(直接使用 ChatGPT)與第三方使用(使用外殼應用程式)之間的差距。

給用戶的建議

鑑於此次洩漏,Creati.ai 建議 「Chat & Ask AI」及類似第三方 AI 應用程式的用戶立即採取行動。

給受害者的立即步驟:

  1. 停止使用該應用程式: 必須立即停止輸入數據。解除安裝應用程式可以防止未來的數據收集,但不會刪除過去的數據。
  2. 要求刪除數據: 如果應用程式提供符合 GDPR 或 CCPA 的數據刪除請求機制,請立即使用。但請注意,如果後端已被入侵,這些請求可能無法得到履行或安全處理。
  3. 監控數位足跡: 警惕引用了你可能僅與聊天機器人討論過的細節的釣魚攻擊。

AI 使用最佳實踐:

  • 堅持使用官方應用程式: 盡可能使用模型供應商的官方應用程式(例如 OpenAI 的官方 ChatGPT 應用程式)。這些組織受到更高程度的監督,並擁有更多專門用於安全的資源。
  • 清理你的輸入: 絕不要與 AI 聊天機器人分享個人身份資訊(Personally Identifiable Information,PII)、財務數據、密碼或高度敏感的醫療資訊,無論是誰開發的。
  • 檢查隱私政策: 在下載新的 AI 工具之前,檢查它是在你的設備本地儲存數據還是在雲端伺服器上儲存。本地儲存通常對隱私更安全。
  • 審查應用程式權限: 對要求與其功能無關的權限(例如存取聯絡人或精確位置)的 AI 應用程式保持懷疑。

結論

「Chat & Ask AI」洩漏事件對整個 AI 行業敲響了警鐘。在我們衝刺將人工智慧整合到生活各個方面的同時,絕不能讓興奮蓋過安全。對於開發者來說,這是關於後端配置和數據治理至關重要性的一課。對於用戶來說,這是一個嚴酷的提醒:在數位世界中,便利往往是以隱私為代價的。

在 Creati.ai,我們將繼續關注此情況,並在獲得有關 Codeway 的回應和潛在監管行動的更多資訊時提供更新。

常見問題解答

問:我可以檢查我的數據是否在此次洩漏中被曝光嗎?
答:目前,針對此次特定洩漏尚無公開可搜尋的資料庫。然而,如果數據在暗網上廣泛流傳,像是「Have I Been Pwned」之類的服務可能會更新其記錄。

問:是否所有 AI 應用程式都不安全?
答:不是。主要的官方第一方應用程式通常具有強大的安全性。對於可能不遵循安全最佳實踐的不知名第三方「外殼」應用程式,風險顯著更高。

問:什麼是 Firebase 配置錯誤?
答:當開發者未能設定「規則」來告知資料庫誰被允許讀取或寫入數據時,就會發生這種情況。由於預設或錯誤,這些規則有時會保持開放狀態,允許互聯網上的任何人存取數據。

精選