
由 Creati.ai 編輯團隊 撰寫
在將人工智慧更深度整合到日常生活中的一項重要舉措中,Google 為其 Gemini AI 推出了一項全新的測試版功能,明確設計用來存取並分析使用者最個人的數位足跡。此更新以「Personal Intelligence」命名,允許 Gemini 直接連接 Gmail、Google Photos、Calendar、Drive 與搜尋記錄,以提供高度個人化的回應。雖然該功能承諾能將 Gemini 從一般的聊天機器人轉變為量身打造的數位助理,但它也再次引發了關於資料隱私、雲端處理,以及人類監督在 AI 訓練中角色的複雜辯論。
該功能最初向美國地區的 Google AI Pro 與 AI Ultra 訂閱者推出,代表 Google 的一個策略性轉向。透過利用其龐大的使用者資料生態系,Google 旨在建立一道競爭護城河,使 OpenAI 與 Anthropic 等競爭者難以輕易跨越。然而,這項能力伴隨著一項讓隱私倡議者感到擔憂的要求:使用者必須授予 AI 模型深入存取其私人通訊與記憶細節的權限。
"Personal Intelligence" 更新的核心前提是情境。直到現在,大型語言模型(Large Language Models,LLMs)大多以知識豐富的外部者角色運作——在一般任務上非常出色,但若未被明確提示,則對使用者的特定情境一無所知。Google 的新更新藉由在 Gemini 與 Google Workspace 生態系之間建立一條神經通道,填補了這個缺口。
Google Labs、Gemini 與 AI Studio 副總裁 Josh Woodward 以一個實際範例說明此整合的實用性:定位車牌號碼。使用者不需手動翻閱數千張照片或舊電子郵件,只要詢問 Gemini,AI 就會掃描已連接的服務以檢索特定資訊。
此整合涵蓋數個關鍵資料孤島:
這種程度的互通性即為 Google 所稱的「Personal Intelligence」,是邁向「代理型AI(Agentic AI)」未來的一步,在那個未來中,助理會代表使用者採取行動,而不只是回答問題。
雖然實用性不容否認,但此解決方案的架構與 Google 的某些競爭對手,尤其是 Apple,顯著不同。主要爭議點在於資料處理發生的「位置」。
Google 在其雲端基礎設施上處理這些個人資料。該公司主張,因為使用者資料已經存放在 Google 的伺服器(如 Gmail、Drive 等),在那裡處理既安全又有效率。「因為這些資料已安全地存在於 Google,你不需要將敏感資料傳送到其他地方,就能開始個人化你的體驗,」公司表示。
然而,這與 Apple Intelligence 所推崇的「裝置端(on-device)」理念形成強烈對比,後者試圖在使用者的硬體上本地處理個人情境,以將資料暴露降到最低。對於重視隱私的使用者來說,這個差異至關重要。授予 AI 模型在雲端「閱讀」電子郵件與「查看」照片的能力,便引發了關於資料持久性與潛在濫用的疑問。
或許 Google 公告中最敏感的面向,是人類審查者的介入。Google 關於 Gemini 的隱私文件證實,包含第三方承包商在內的人類審查者會用於評估部分資料,以提升 AI 的品質。
雖然 Google 明確聲稱 Gemini 並不會直接於 Gmail 收件匣或私人照片庫上進行訓練,但它確實會基於使用者提交的提示與 AI 的回應進行訓練。這些互動在去識別化後,仍可能由人類審查。此一細節創造了潛在的隱私外洩風險:若使用者基於其電子郵件內容提出包含高度敏感個人資訊的問題,該提示理論上可能進入審查佇列。
比較:資料處理方式
下表概述了標準使用情境與新的 Personal Intelligence 整合在資料處理上的主要差異。
| Feature Aspect | Standard Gemini Usage | Gemini with "Personal Intelligence" |
|---|---|---|
| Data Access | Public web knowledge, user-provided text | Gmail, Photos, Drive, Calendar, Maps |
| Processing Location | Google Cloud | Google Cloud(深度整合) |
| Training Data | Web data, user prompts (anonymized) | User prompts & responses (anonymized) |
| Human Review | Yes (on anonymized prompts) | Yes (on anonymized prompts) |
| Default Setting | Enabled (for basic chat) | Disabled (Opt-in required) |
| Primary Risk | General data collection | Exposure of private correspondence |
信任是一種資產,而 Google 有時候難以維持此種資產。批評者將公司的隱私執法歷史列為不信任的理由。顯著事件包括因未明確同意而錄製的 Google Assistant 錄音所達成的 6800 萬美元和解,以及在德州有關生物特徵與位置資料收集的一項巨額 13.75 億美元和解。
儘管「Personal Intelligence」功能目前採「需選擇加入(opt-in)」——意味著使用者必須在設定中手動啟用——評論者仍警告可能出現的「黑暗模式」(dark patterns)。從歷史經驗來看,科技巨頭往往以可選方式先行推出具侵入性的功能,之後再透過持續通知、彈出視窗與使用者介面變更來推動使用者啟用。
此外,Google 也承認技術上的限制。系統可能會出現幻覺或誤解個人情境。文件指出 Gemini「在時間與細微差異上常有困難」,並以婚姻變動如離婚作為特定的盲點範例。若 AI 在「有幫助」的情境下提出有關前配偶的記憶,便凸顯了自動化個人智慧所涉及的情感風險。
從產業角度來看,這個動作不僅關乎單一功能,而是關乎生態系主導地位。在打造終極 AI 助手的競賽中,最了解使用者的模型勝出。
透過將 Gemini 與 Workspace 鎖定相互連結,Google 正在運用其最重要的資產:它已握有數十億使用者的數位生活。如果使用者習慣於一個了解他們行程、能找到收據、記得假期的 AI,轉換到競爭者的門檻將呈指數級增加。
「Personal Intelligence」更新強而有力地展示了當生成式AI(Generative AI)從隱私孤島中解放出來時,可以做到的事。它提供了一個未來的景象,在那裡我們的數位助理真正成為我們記憶的延伸。然而,這份便利是以信任作為代價。
對 Creati.ai 的讀者——開發者、創作者與科技愛好者來說,是否啟用此功能是一項權衡:一個全知的 AI 所帶來的效率,是否值得和一個雲端巨頭共享那份全知?隨著該功能在 2026 年晚些時候擴展到免費用戶,這個問題將從早期採用者延伸到大眾,並定義數位隱私下一個戰場。