AI News

Google Gemini 的「Personal Intelligence」更新:效用與監控之間的微妙界線

由 Creati.ai 編輯團隊 撰寫

在將人工智慧更深度整合到日常生活中的一項重要舉措中,Google 為其 Gemini AI 推出了一項全新的測試版功能,明確設計用來存取並分析使用者最個人的數位足跡。此更新以「Personal Intelligence」命名,允許 Gemini 直接連接 Gmail、Google Photos、Calendar、Drive 與搜尋記錄,以提供高度個人化的回應。雖然該功能承諾能將 Gemini 從一般的聊天機器人轉變為量身打造的數位助理,但它也再次引發了關於資料隱私、雲端處理,以及人類監督在 AI 訓練中角色的複雜辯論。

該功能最初向美國地區的 Google AI Pro 與 AI Ultra 訂閱者推出,代表 Google 的一個策略性轉向。透過利用其龐大的使用者資料生態系,Google 旨在建立一道競爭護城河,使 OpenAI 與 Anthropic 等競爭者難以輕易跨越。然而,這項能力伴隨著一項讓隱私倡議者感到擔憂的要求:使用者必須授予 AI 模型深入存取其私人通訊與記憶細節的權限。

「Personal Intelligence」的運作機制

"Personal Intelligence" 更新的核心前提是情境。直到現在,大型語言模型(Large Language Models,LLMs)大多以知識豐富的外部者角色運作——在一般任務上非常出色,但若未被明確提示,則對使用者的特定情境一無所知。Google 的新更新藉由在 Gemini 與 Google Workspace 生態系之間建立一條神經通道,填補了這個缺口。

Google Labs、Gemini 與 AI Studio 副總裁 Josh Woodward 以一個實際範例說明此整合的實用性:定位車牌號碼。使用者不需手動翻閱數千張照片或舊電子郵件,只要詢問 Gemini,AI 就會掃描已連接的服務以檢索特定資訊。

此整合涵蓋數個關鍵資料孤島:

  • Gmail: 彙整郵件串、查找特定日期,或從發票中擷取細節。
  • Google Photos: 分析影像以回答關於過去事件或特定物件的查詢。
  • Drive & Docs: 交叉比對文件以綜整不同檔案的資訊。
  • Maps & Search History: 利用位置資料與過去查詢來客製化建議。

這種程度的互通性即為 Google 所稱的「Personal Intelligence」,是邁向「代理型AI(Agentic AI)」未來的一步,在那個未來中,助理會代表使用者採取行動,而不只是回答問題。

隱私困境:雲端處理與控制權

雖然實用性不容否認,但此解決方案的架構與 Google 的某些競爭對手,尤其是 Apple,顯著不同。主要爭議點在於資料處理發生的「位置」。

Google 在其雲端基礎設施上處理這些個人資料。該公司主張,因為使用者資料已經存放在 Google 的伺服器(如 Gmail、Drive 等),在那裡處理既安全又有效率。「因為這些資料已安全地存在於 Google,你不需要將敏感資料傳送到其他地方,就能開始個人化你的體驗,」公司表示。

然而,這與 Apple Intelligence 所推崇的「裝置端(on-device)」理念形成強烈對比,後者試圖在使用者的硬體上本地處理個人情境,以將資料暴露降到最低。對於重視隱私的使用者來說,這個差異至關重要。授予 AI 模型在雲端「閱讀」電子郵件與「查看」照片的能力,便引發了關於資料持久性與潛在濫用的疑問。

人類審查者的介入

或許 Google 公告中最敏感的面向,是人類審查者的介入。Google 關於 Gemini 的隱私文件證實,包含第三方承包商在內的人類審查者會用於評估部分資料,以提升 AI 的品質。

雖然 Google 明確聲稱 Gemini 並不會直接於 Gmail 收件匣或私人照片庫上進行訓練,但它確實會基於使用者提交的提示與 AI 的回應進行訓練。這些互動在去識別化後,仍可能由人類審查。此一細節創造了潛在的隱私外洩風險:若使用者基於其電子郵件內容提出包含高度敏感個人資訊的問題,該提示理論上可能進入審查佇列。

比較:資料處理方式

下表概述了標準使用情境與新的 Personal Intelligence 整合在資料處理上的主要差異。

Feature Aspect Standard Gemini Usage Gemini with "Personal Intelligence"
Data Access Public web knowledge, user-provided text Gmail, Photos, Drive, Calendar, Maps
Processing Location Google Cloud Google Cloud(深度整合)
Training Data Web data, user prompts (anonymized) User prompts & responses (anonymized)
Human Review Yes (on anonymized prompts) Yes (on anonymized prompts)
Default Setting Enabled (for basic chat) Disabled (Opt-in required)
Primary Risk General data collection Exposure of private correspondence

法規陰影與過往先例

信任是一種資產,而 Google 有時候難以維持此種資產。批評者將公司的隱私執法歷史列為不信任的理由。顯著事件包括因未明確同意而錄製的 Google Assistant 錄音所達成的 6800 萬美元和解,以及在德州有關生物特徵與位置資料收集的一項巨額 13.75 億美元和解。

儘管「Personal Intelligence」功能目前採「需選擇加入(opt-in)」——意味著使用者必須在設定中手動啟用——評論者仍警告可能出現的「黑暗模式」(dark patterns)。從歷史經驗來看,科技巨頭往往以可選方式先行推出具侵入性的功能,之後再透過持續通知、彈出視窗與使用者介面變更來推動使用者啟用。

此外,Google 也承認技術上的限制。系統可能會出現幻覺或誤解個人情境。文件指出 Gemini「在時間與細微差異上常有困難」,並以婚姻變動如離婚作為特定的盲點範例。若 AI 在「有幫助」的情境下提出有關前配偶的記憶,便凸顯了自動化個人智慧所涉及的情感風險。

策略觀點:資料為終極護城河

從產業角度來看,這個動作不僅關乎單一功能,而是關乎生態系主導地位。在打造終極 AI 助手的競賽中,最了解使用者的模型勝出。

  • OpenAI(ChatGPT): 缺乏原生的電子郵件、行事曆與相片儲存生態系。它必須仰賴使用者上傳檔案或連結第三方帳戶。
  • Apple: 擁有生態系,但在原始模型能力與雲端基礎設施彈性方面可能落後。
  • Google: 同時擁有最先進的模型(Gemini)與全球最普及的個人資料存放庫(Workspace/Android)。

透過將 Gemini 與 Workspace 鎖定相互連結,Google 正在運用其最重要的資產:它已握有數十億使用者的數位生活。如果使用者習慣於一個了解他們行程、能找到收據、記得假期的 AI,轉換到競爭者的門檻將呈指數級增加。

結論

「Personal Intelligence」更新強而有力地展示了當生成式AI(Generative AI)從隱私孤島中解放出來時,可以做到的事。它提供了一個未來的景象,在那裡我們的數位助理真正成為我們記憶的延伸。然而,這份便利是以信任作為代價。

對 Creati.ai 的讀者——開發者、創作者與科技愛好者來說,是否啟用此功能是一項權衡:一個全知的 AI 所帶來的效率,是否值得和一個雲端巨頭共享那份全知?隨著該功能在 2026 年晚些時候擴展到免費用戶,這個問題將從早期採用者延伸到大眾,並定義數位隱私下一個戰場。

精選