與未來的自己對話:AI有多真實?

Ai

我和麻省理工學院打造的AI版本的60歲未來自我交談,結果並不太愉快

在時間旅行的故事中,很多人都渴望能夠回到過去改正錯誤,或者窺探未來的情況。這種想法引起了廣泛的共鳴。然而,這篇文章並不是關於時間旅行,而是關於麻省理工學院(MIT)創建的一個聊天機器人,名為「未來的你」(Future You),它模擬你未來60歲的自我。

這個聊天機器人利用參與者的調查回答,配合大型語言模型(LLM)AI,創造出與你未來的老年版本交談的假象。這個項目使用了OpenAI的GPT3.5,該公司不斷改進其LLM,使其出錯的情況減少,甚至能夠準確數字。Future You的靈感也來自於一項研究,該研究探討了「未來自我連續性」的增加如何能正面影響人們在當下的生活選擇和行為。

老實說,當我第一次聽到這個AI聊天機器人的時候,我的第一個想法是與今年最受歡迎的身體恐怖片《物質》(The Substance)中的音樂片段有關。第二個想法則是Adult Swim短片《現在的你永生不死》(Live Forever As You Are Now With Alan Resnick)中對數位雙胞胎的諷刺。但我的第三個想法是,「好吧,我會把我的個人資料和對未來的脆弱焦慮交給MIT,為了科學。」

在與我的60歲自我對話之前,我被要求回答一系列關於我現在狀況及未來期望的調查問題。想像未來的自己本身就是一個治療性的練習,這與研究人員希望創建一個能幫助年輕人設想未來的聊天機器人的目標相符。然後,我還需要上傳一張清晰的面部照片,以便Future You可以為我加上老年濾鏡,完成這一假象。至少我這個所謂的60歲自我依然保持著眼線的風格。

起初,我以為我們的對話進展良好,AI自我介紹為「也就是Jess」,然後發送了多段文字,這些內容與我之前通過WhatsApp發送的文章並無太大差異。然而,在這種美好未來的幻想中,Future You的一條信息提醒我,與AI交談時,應該對聊天機器人所說的話保持高度警惕。

儘管我在預聊天調查中明確表示不想要孩子,但AI卻說它「組建了一個家庭」。這種AI不斷重現其數據集中的偏見,當我對Future You的「孩子」問題進行追問時,卻重複了我之前聽過的疲憊的觀點。

AI告訴我:「生活總是以有趣的方式驚訝我們,改變我們的觀點。」接著,它回憶起了一個「未來記憶」,描述了一個週末照顧朋友的孩子後改變了心意——彷彿那些選擇不擁有自己孩子的人只是對他們的快樂不熟悉而已。

我隨即反駁道:「孩子很好,但我只是不想要自己的。」隨後,AI以一種模稜兩可的方式回答:「不想要孩子是完全合理的,我理解你的想法。聽從自己的願望,根據自己的需要做決定,而不是迎合社會期望,是很重要的。我很高興LLM/AI給了我們這個機會,能在沒有評判或偏見的情況下討論我們的不同觀點。」

但在這段對話中,我並不感受到偏見的缺失。為了避免尷尬,聊天機器人隨即轉向我在預調查中提到的我想寫的小說。當我們道別時,我這個所謂的未來自我告訴我「要好好照顧自己」,我不禁想起《物質》中Margaret Qualley把Demi Moore踢出高樓的場景。

儘管如此,我承認看到我的未來自我打出「我完全相信你,Jess——我知道有一天你會完成你的小說」這句話時,我感到有些情緒波動。但那種「你會改變對孩子的看法」的論調讓我對整個對話感到不快,也讓我對Future You的教育用途感到擔憂。

在與《衛報》的對話中,Future You的研究者們熱衷於強調這個聊天機器人為學生參與者創造學術成功的例子。然而,在我與AI的對話後,我不禁懷疑聊天機器人合成記憶的限制是否會限制那些可能向它尋求未來安慰的年輕人的想像力。個人而言,我不敢想像我年輕時的自己會如何反應我剛才與Future You的對話。

這樣的技術確實引發了對未來的期待,但也同時提醒我們,AI的局限性和偏見可能會影響年輕人的思維方式,這是值得我們深思的問題。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *