
使用ChatGPT過多可能會造成情感依賴,研究發現
OpenAI似乎每周都在推出新的人工智能模型,以提升其ChatGPT聊天機器人的功能,讓其4億用戶受益。然而,這個AI工具所提供的便利似乎也顯示出「好東西也有過猶不及」的道理。
這家人工智能公司現在正深入研究ChatGPT對用戶可能產生的心理影響。OpenAI與麻省理工學院媒體實驗室合作,發表了一項兩部分的研究結果,揭示了ChatGPT使用頻率增加與用戶孤獨感加重之間的關聯。
這兩個機構各自進行了獨立研究,然後將結果彙總得出結論。OpenAI的研究在一個月內檢視了「超過4000萬次的ChatGPT互動」,為了保護用戶隱私,這些互動不包括人類參與的數據。同時,麻省理工學院則觀察了大約1000名參與者在28天內使用ChatGPT的情況。目前,這些研究尚未經過同行評審。
麻省理工學院的研究探討了不同的使用功能如何影響用戶與ChatGPT互動時的情感體驗,包括文字和語音的使用。結果發現,無論是使用哪種媒介,都可能引發孤獨感或影響用戶的社交行為。語音的語調和話題選擇也是一個重要的比較點。
研究指出,ChatGPT語音模式中使用的中性語調不太可能導致參與者產生負面情感。與此同時,研究發現,與ChatGPT進行個人對話的參與者更可能感到孤獨;然而,這些影響是短期的。即使是使用文本聊天進行一般性話題對話的用戶,也經歷了對聊天機器人的情感依賴增加的情況。
研究還觀察到,那些將ChatGPT視為朋友的人,以及那些在關係中本身就有強烈情感依附傾向的人,更可能在參與研究時感到孤獨和對聊天機器人的情感依賴。
OpenAI的研究提供了額外的背景,指出整體而言,出於情感目的與ChatGPT互動的情況並不常見。此外,研究發現,即使在重度用戶中,使用了聊天機器人的高級語音模式並更傾向於將ChatGPT視為朋友的參與者,對於與聊天機器人互動的情感反應仍然較低。
OpenAI總結道,這些研究的目的是了解其技術可能帶來的挑戰,並能夠為其模型的使用設定期望和範例。
儘管OpenAI表示其互動基礎的研究模擬了真實人類的行為,但不乏一些真實人類在公共論壇(如Reddit)上承認,會用ChatGPT來替代尋求心理治療的途徑。
這項研究的結果引發了對當前科技與人類情感之間關係的深入思考。隨著AI工具的普及,使用者對其的依賴性是否會進一步增加,甚至取代傳統的情感支持系統,如心理治療師,這是值得我們關注的議題。社會應該如何適應這種變化,並在科技進步的同時,保障人類情感的健康發展,將是一個持續的挑戰。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。