
OpenAI 據報正在測試對其「臨時聊天(Temporary Chat)」功能的一項重大升級,解決進階使用者最常面臨的摩擦點之一:資料隱私與模型智慧之間的權衡。根據近期報導,升級後的功能允許臨時會話存取使用者的個人化設定——包括記憶(Memory)與自訂指示(Custom Instructions)——同時維持嚴格的隱私協定,防止這些對話被用於訓練 OpenAI 的模型。
對於依賴 生成式AI(Generative AI) 來處理敏感任務的專業人士與企業使用者,這項發展代表了關鍵的轉變。它承諾一種「兼得」的情境,使用者不再必須在一個有用且具情境感知的助理,與一個私密且短暫的工作空間之間做出選擇。
當 OpenAI 在 2024 年初首次推出 臨時聊天(Temporary Chat) 時,它被設計為 AI 互動的隱身模式。其主要功能是提供一個乾淨的起點:模型不會儲存對話紀錄、不會從資料學習,且最重要的是,不會存取任何過去的記憶或 自訂指示。
雖然這確保了最大的隱私,但卻大幅限制了實用性。那些花了數小時撰寫詳細自訂指示——定義他們的程式風格、專業語氣或特定專案限制——的使用者感到相當挫折。要使用以隱私為重點的臨時聊天,他們必須犧牲使 ChatGPT 高效率的個人化智慧。每一次臨時會話都需要重新提示模型輸入它已經「知道」但被迫忽視的上下文。
新的更新改變了這個架構。測試該功能的使用者回報,雖然聊天仍是短暫的——會從歷史中消失並排除於模型訓練之外——但 AI 現在能識別使用者既有的設定檔。它可以回憶偏好的回應格式並利用儲存的記憶,確保互動風格的連貫性,同時不會為特定查詢建立永久紀錄。
為了理解此更新的重要性,有必要比較使用者目前可用的各種模式在資料處理上的差異。
Data Handling & Features across ChatGPT Modes
| Feature | Standard Chat | Legacy Temporary Mode | Upgraded Temporary Mode |
|---|---|---|---|
| Conversation History | 儲存無期限 | 不儲存至歷史紀錄 | 不儲存至歷史紀錄 |
| Model Training | 資料用於訓練 | 排除於訓練之外 | 排除於訓練之外 |
| Memory Access | 完全讀寫存取 | 被阻擋(空白狀態) | 唯讀存取(保留情境) |
| Custom Instructions | 啟用 | 停用 | 啟用 |
| 30-Day Safety Retention | 是 | 是 | 是 |
此升級的核心價值在於其對資料使用方式的細膩處理。在人工智慧(Artificial Intelligence)的領域中,「隱私」往往是二元的:系統要麼學習一切,要麼什麼都不知。這次更新引入了一個中間地帶。
透過允許對個人化向量(記憶與自訂指示)進行唯讀存取,但不對會話歷史授予寫入權限,OpenAI 實際上將「使用者設定檔」與「會話資料」分離。這一點對於特定產業案例尤為關鍵。
例如,軟體開發人員現在可以使用臨時聊天來偵錯專有程式碼。在舊有模式下,AI 會忘記開發者偏好使用 Python 而非 C++,或其特定的註解標準。升級後,AI 會遵循這些預先設定的自訂指示,同時確保專有程式碼片段本身不會被吸收進訓練資料集或儲存至可見的聊天歷史。
重要的是,標準的安全協定仍然有效。與所有 ChatGPT 對話一樣,OpenAI 會保留臨時聊天的副本長達 30 天,僅用於監控濫用或安全違規。此保留是嚴格內部的,並不會貢獻給模型的一般知識庫。
此更新與 OpenAI 產品策略中的一個更廣泛趨勢一致:精進使用者對資料的控制。最近,公司推出了多項功能,旨在客製化體驗,包括年齡預測模型以更好地保護年輕使用者,以及對記憶管理的更細緻控制。
臨時聊天的升級顯示 OpenAI 正在遠離「一體適用」的隱私解決方案。相反地,他們在建立一個模組化系統,讓使用者能混合搭配隱私等級與實用性等級。隨著平台從新奇工具逐步成熟為企業日常工作的核心,效率與機密性同等重要,這一點至關重要。
從 Creati.ai 的角度來看,這項更新代表了大型語言模型(LLMs)必要的成熟。要讓 AI 真正整合進敏感的工作流程——法律草擬、醫療頭腦風暴或專有程式碼撰寫——使用者必須信任系統能在不具侵擾性的情況下提供協助。
為了確保隱私而必須向 AI 反覆重申身份的摩擦,是一個重大的使用者體驗障礙。移除這個障礙會鼓勵更頻繁地使用保護隱私的工具。使用者不會再因為選擇保護資料而被處以「較笨」的 AI。隨著此功能向更廣泛的使用群體推出,我們預期它將成為專業使用的預設標準:在私密環境中提供個人化智慧。