AI News

安全智慧的新紀元:Google 發表 Private AI Compute

在決定性的一步中,為了縮短裝置端隱私與雲端規模能力之間的差距,Google 正式推出了 Private AI Compute,這是一項突破性的基礎設施,旨在為其先進的 Gemini 模型保障資料處理安全。這項策略性發展標誌著人工智慧領域的重要轉向,回應了使用者對資料主權日益增加的疑慮,同時解鎖下一代 AI 功能所需的龐大運算能量。

隨著對更複雜 AI 助手的需求逐漸增加——從複雜推理到個人化記憶召回——本地裝置處理的限制變得明顯。Google 的 Private AI Compute 旨在透過創建一個「封閉」的雲端環境來解決這一難題,該環境提供與本地裝置相當的安全保證,且具備資料中心的效能。此一發表使 Google 與 Apple 類似的隱私優先架構直接競爭,並且顯示業界正朝向可驗證的、硬體支援的 雲端安全 轉變。

縮短差距:Private AI Compute 如何運作

Private AI Compute 的核心在於允許 Google 最強大的 AI 模型處理敏感使用者資料,且該資料永遠不會被 Google 或任何第三方存取。系統採用一種新穎的專有架構,將先進加密與專用硬體隔離結合。

根據 Google 的技術文件,該系統依賴三大支柱:Titanium Intelligence Enclaves (TIE)Trillium TPUs 以及可驗證的遠端鑑證。當使用者提出超出其裝置本地處理能力的複雜請求時,資料會在裝置上先行加密,然後再傳送到雲端。

關鍵在於,這些資料會進入 Google 資料中心內的「受信任執行環境(Trusted Execution Environment,TEE)」。這些環境在硬體層級上與 Google 網路的其餘部分隔離。Titanium Intelligence Enclaves 確保運行其中的作業系統與 AI 模型防篡改,且即便是 Google 自身的站點可靠性工程師使用的管理工具,也無法檢視該執行工作負載的記憶體或儲存內容。

遠端鑑證的角色

為了保證信任,Google 已實作一種稱為遠端鑑證(remote attestation)的協議。在使用者的裝置(例如即將推出的 Pixel 10)傳送任何資料之前,該裝置會以密碼學方式向雲端伺服器發出挑戰,以驗證伺服器的身份與完整性。伺服器必須以數位簽章回應,以證明其正在執行真正且未被修改的 Private AI Compute 軟體堆疊。如果裝置無法驗證此簽章,資料傳輸將被中止。

這種「無狀態」處理模型確保,一旦 AI 回應產生並回傳給使用者,該使用者的資料會從 enclave 的記憶體中抹除。特定查詢內容不會保留日誌,實際上模擬了裝置端處理的短暫性質。

隱私與效能的取捨

多年來,科技業一直面臨二元選擇:透過將資料保留於智慧型手機上來優先考量隱私(但因硬體限制而限制 AI 的智慧),或透過將資料傳到雲端來優先考量能力(但這會帶來隱私風險)。

Google 的 AI 創新副總裁 Jay Yagnik 在發表時強調,Private AI Compute 有效地消除了這種取捨。「我們提供強大雲端模型的好處,同時具備裝置端處理的隱私保護,」Yagnik 表示。「此方法確保由 Private AI Compute 處理的敏感資料僅能由您本人存取,其他任何人,包括 Google,都無法存取。」

此架構對於即將推送給 Android 及 Workspace 使用者的一套由 Gemini 驅動的新功能尤其重要。像是更新後的 Recorder 應用程式——現在可以用多種語言摘要數小時的錄音——以及具脈絡感知的助理 Magic Cue,都需要大量處理能力;若在本機運行,會耗盡手機電量或導致處理器過熱。Private AI Compute 在不洩露錄音或個人脈絡機密的情況下,將這些繁重任務卸載到雲端。

比較分析:Google vs. Apple

Private AI Compute 的推出立即讓人聯想到 Apple 用於支援 Apple Intelligence 的 Private Cloud Compute (PCC)。兩家公司現在都在競相為消費者 AI 領域建立「機密運算(confidential computing)」的標準。雖然哲學目標相同,但在實作細節上,各自展現了針對其生態系精心設計的不同策略。

下表列出 Google 新系統、Apple 的方案以及傳統雲端 AI 處理之間的主要差異與相似處:

Feature Google Private AI Compute Apple Private Cloud Compute Standard Cloud AI
Core Architecture Titanium Intelligence Enclaves (TIE) with Trillium TPUs Custom Apple Silicon Server Nodes Standard Virtual Machines / Containers
Data Visibility Inaccessible to Google; Encrypted in use Inaccessible to Apple; Ephemeral processing Accessible to provider (often used for training)
Verification Method Remote Attestation & Public Audit Logs Virtual Research Environment (VRE) for audit Standard Compliance Audits (SOC2, etc.)
Hardware Foundation Custom Trillium TPUs & Titanium offload Modified M-series Chips NVIDIA H100s / Standard TPUs
Target Ecosystem Android (Pixel), Google Workspace iOS, iPadOS, macOS Broad Enterprise & Consumer web

主要差異: Apple 依靠放置於伺服器中的自家客製晶片(M 系列)來複製 iPhone 的安全模型;而 Google 則利用其在客製張量處理上的大規模優勢。使用 Trillium TPUs 可讓 Google 潛在地在這些安全 enclave 中運行更大型的模型(例如 Gemini Ultra 變體),在處理重度推理任務時提供理論上的效能優勢。

產業影響與「可驗證」的未來

Private AI Compute 的引入代表 AI 產業的一次成熟。我們正從雲端服務的「黑箱」時代,邁向「可驗證隱私」的模式。資安專家長期警告,僅靠「相信我們」並不足以作為處理親密使用者資料的安全立場。藉由公開其軟體堆疊的密碼學衡量值並允許獨立研究者稽核在這些 enclave 中運行的程式碼,Google 與 Apple 都試圖建立一種無需信任的架構,在這個架構中,隱私由數學與硬體來保證,而不僅僅是政策。

此一轉變將對 OpenAI、Microsoft 等其他 AI 業者施加壓力,促使他們在消費者產品上採用類似的「機密運算(confidential computing)」標準。隨著使用者越來越重視隱私,能夠證明資料不被用於模型訓練或人工審查的能力,很可能從一項高階功能,變成競爭上的基本門檻。

未來的挑戰

儘管架構看似強固,挑戰仍然存在。這類「硬體封閉」系統讓偵錯複雜 AI 錯誤變得更困難。此外,在數百萬台裝置之間維持信任鏈,需有無懈可擊的金鑰管理,並持續防範邊信道攻擊,因為理論上這類攻擊仍可能從已加密的 enclave 推斷出資料模式。

Google 表示將開放其 Private AI Compute 堆疊的部分給第三方稽核,並已邀請資安研究社群測試 Titanium Intelligence Enclaves 的完整性。這種透明度對於說服記得過去隱私爭議的質疑者至關重要。

結論

Google 的 Private AI Compute 不僅僅是一項後端升級;它是對個人化 AI 交付方式的一次根本重構。透過成功將 AI 智能與資料曝露脫鉤,Google 正為未來鋪路,使我們的數位助理可以對我們瞭若指掌,同時又實際上「不知情」。隨著這些功能在 Pixel 10 及更廣泛裝置上逐步推出,Private AI Compute 的成敗最終將取決於使用者在日常互動中是否能感受到那種無縫結合的效能與隱私。

對於 Creati.ai 社群而言,這項發展突顯了專用 AI 硬體與隱私增強技術的關鍵交會點——這正是無疑會推動生成式AI(Generative AI)領域下一波創新的空間。

精選