六合彩AI預測賽後檢討!邊個模型預測最叻? 每次攪珠當晚10:30更新免費睇!

ChatGPT勁過你?AI記憶升級,隨時知你多過自己!

Ai

ChatGPT 可以記住比以往更多有關你的信息——你應該擔心嗎?

意見
作者:Becca Caddy 發佈於 2025年4月19日

AI 記憶正在演變。更有幫助?絕對是的。更具侵入性?那也是肯定的。

ChatGPT 的記憶功能曾經相對簡單。你告訴它要記住什麼,它就會聽從。自2024年以來,ChatGPT 引入了一個記憶功能,讓用戶可以存儲有用的上下文信息,包括你的語氣、寫作風格、目標、興趣和正在進行的項目。你可以進入設置查看、更新或刪除這些記憶。有時,它還會自行記錄一些重要的信息。但大體上,它只記住你要求的內容。現在,這一切都在發生變化。

OpenAI,ChatGPT 的開發公司,正在推出一個重大的記憶升級。除了手動保存的少量事實外,ChatGPT 現在將自動從你過去的對話中提取信息,以便更好地回答未來的問題。

根據 OpenAI 的說法,記憶現在有兩種運作方式:“保存的記憶”,由用戶直接添加,以及來自“聊天歷史”的見解,這些是 ChatGPT 自動收集的。

這個功能被稱為長期或持久記憶,現已向 ChatGPT Plus 和 Pro 用戶推出。然而,撰寫本文時,這項功能在英國、歐盟、冰島、列支敦士登、挪威和瑞士尚不可用,因為當地的法規限制。

這裡的觀點很簡單:ChatGPT 記住的越多,對用戶的幫助就越大。這是個性化的一大飛躍。但這也是一個好時機,讓我們停下來思考我們可能因此而放棄了什麼。

個性化的記憶

從某種程度上來看,這個功能的吸引力不言而喻。來自 ChatGPT 的更個性化體驗意味著你需要解釋的內容更少,獲得的答案更具相關性。這是有效率的,並且讓人感到親切。

“個性化始終與記憶有關,”AI 語音技術公司 Speechmatics 的產品經理 Rohan Sarin 說。“長時間認識某人意味著你不需要再向他們解釋一切。”

他舉了一個例子:如果你請 ChatGPT 推薦一家比薩店,它可能會根據你以前的健康目標,輕輕引導你選擇更符合這些目標的選項——這是一種基於它對你的了解的微妙暗示。它不僅僅是遵循指令,而是在字裡行間中捕捉信息。

“這就是我們如何與他人建立親密關係的原因,”Sarin 說。“這也是我們信任他們的方式。”這種情感共鳴使這些工具顯得如此有用,甚至有些安慰。然而,這也提高了情感依賴的風險。而這,或許正是整個問題的核心。

“從產品的角度來看,存儲始終是關於黏性的,”Sarin 告訴我。“這使得用戶不斷回來。每次互動,轉換成本都在增加。”

OpenAI 對此並不隱瞞。公司的首席執行官 Sam Altman 在推特上表示,記憶使得“AI 系統能夠在你的一生中了解你,並變得極其有用和個性化。”

這種有用性顯而易見,但依賴它們的風險同樣明顯,尤其是我們不僅希望它們幫助我們,還希望它們了解我們。

它是否像我們一樣記憶?

AI 的長期記憶面臨的一個挑戰是,它無法以人類的方式理解上下文。我們本能地將事物進行分類,分開私密與專業、重要與短暫。ChatGPT 可能會在這種上下文轉換中掙扎。

Sarin 指出,由於人們使用 ChatGPT 的方式各不相同,這些界限可能會模糊。“在現實生活中,我們依賴非言語提示來進行優先排序。AI 並不具備這些能力。因此,沒有上下文的記憶可能會引發不適的情緒觸發。”

他舉了一個例子:如果 ChatGPT 每次故事或創意建議中都提到魔法和幻想,只因為你曾提到過喜歡《哈利·波特》,那麼這種情況就會出現。它是否會基於過去的記憶進行提取,即使這些記憶不再相關?“我們的遺忘能力是我們成長的一部分,”他說。“如果 AI 只反映我們曾經是誰,那麼它可能會限制我們成為誰。”

如果沒有排名的方式,模型可能會提出一些隨機、過時甚至不合時宜的內容。

將 AI 記憶應用於工作場所

持久記憶在工作中可能會非常有用。Matillion 的 AI 和數據科學主管 Julian Wiffen 認為,這可以改善長期項目的連貫性,減少重複提示,並提供更量身定制的助手體驗。“這是非常有用的應用場景,”他說。

但他也持謹慎態度。“在實踐中,用戶,尤其是公司,需要考慮一些嚴重的細微差別。”他最大的擔憂是隱私、控制和數據安全。

“我經常在提示中進行實驗或隨意思考。我不希望這些內容被保留,甚至更糟的是,在其他上下文中再次出現,”Wiffen 說。他還指出在技術環境中可能出現的風險,其中代碼片段或敏感數據可能在項目之間轉移,從而引發知識產權或合規性問題。“在受到監管的行業或協作環境中,這些問題會被放大。”

到底是誰的記憶?

OpenAI 強調,用戶仍然可以管理記憶——刪除不再相關的個別記憶,完全關閉記憶功能,或使用新的“臨時聊天”按鈕。這個按鈕現在出現在聊天屏幕的頂部,用於那些不受過去記憶影響的對話,並且不會用於建立新的記憶。

然而,Wiffen 認為這可能不夠。“我擔心的是缺乏細緻的控制和透明度,”他說。“通常不清楚模型記住了什麼,保留信息的時間長短,以及是否真的能夠被遺忘。”

他還擔心遵守數據保護法,如 GDPR:“即使是出於良好意圖的記憶功能,也可能會意外保留敏感的個人數據或項目的內部信息。而從安全角度看,持久記憶擴大了攻擊面。”這可能就是為什麼這次更新尚未在全球推出的原因。

那麼,解決方案是什麼?“我們需要更清晰的安全護欄,更透明的記憶指示,以及能夠完全控制記住什麼和忘記什麼的能力,”Wiffen 解釋道。

並非所有 AI 的記憶都一樣

其他 AI 工具對記憶採取了不同的方法。例如,AI 助手 Claude 不會在當前對話之外存儲持久記憶。這意味著個性化功能較少,但控制和隱私更好。

Perplexity 是一款 AI 搜索引擎,根本不專注於記憶——而是實時檢索網絡信息。相對而言,專為情感陪伴設計的 Replika 則相反,儲存長期情感上下文以加深與用戶的關係。

因此,每個系統根據其目標以不同的方式處理記憶。它們對我們的了解越多,就越能實現這些目標——無論是幫助我們寫作、聯繫、搜索還是感受到理解。

問題不是記憶是否有用;我認為它顯然是有用的。問題在於我們是否希望 AI 在這些角色上變得如此出色。

很容易回答“是”,因為這些工具設計上旨在提供幫助、高效,甚至是不可或缺的。但這種有用性並不是中立的,而是有意識的。這些系統是由在我們越來越依賴它們的情況下獲益的公司構建的。

你不會心甘情願地放棄一個能記住你一切的第二個大腦,甚至可能比你自己更清楚。而這正是重點。這就是你最喜愛的 AI 工具背後的公司所寄望於的。

在這篇文章中,作者深入探討了 AI 記憶的進化及其潛在影響,這不僅是對於用戶的便利性,還包括隱私和情感依賴的風險。隨著科技的發展,我們需要更清晰的指導方針和控制手段,以確保我們在享受 AI 帶來的便利的同時,不會失去對自身信息的掌控。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon