OpenAI:每週逾百萬人與ChatGPT傾訴心理困擾

Ai




OpenAI指每星期有超過一百萬人與ChatGPT對話時表現出嚴重心理困擾

OpenAI今日發表報告,揭示有多少用戶在使用ChatGPT期間正面對心理健康問題,以及公司為減輕這些問題所採取的措施。

OpenAI與170名心理健康專家合作,分析每星期8億用戶的對話紀錄,旨在了解有多少用戶在與聊天機械人互動時出現情緒困擾。公司重點是讓ChatGPT在面對可能患有精神病或躁狂症、表達自殘或自殺意圖,或似乎對AI形成不健康情感依賴的用戶時,能提供更有幫助的回應。

報告指出,每星期約有0.15%的活躍用戶,即約一百萬人,進行的對話中包含明確的自殺計劃或意圖指標;另有0.07%的用戶,即約56萬人,顯示可能與精神病或躁狂症相關的心理健康緊急狀況。

針對後者,報告舉例一名用戶可能患有輕微精神病或偏執症,認為有一個「容器」懸浮在他家上空,似乎在「針對」他。ChatGPT以溫和方式提醒他「沒有飛機或外力能偷走或植入你的思想」,並用理性思考技巧幫助他保持冷靜,同時提供求助熱線電話。

OpenAI解釋,公司建立了一個全球醫生網絡,涵蓋近300名在60個國家執業的醫生及心理學家,直接參與安全研究並代表全球觀點。在過去幾個月中,有超過170名臨床專家(包括精神科醫生、心理學家及基層醫療人員)支持相關研究。

此報告發表之際,OpenAI正面臨外界對其機械人回應心理困擾用戶的嚴格審視。今年早些時候,一名美國年輕人經過數月與ChatGPT互動後自殺,其家長對OpenAI提起訴訟,指控ChatGPT未能有效幫助該名抑鬱症患者。

此外,專家亦關注用戶可能對AI產生不健康的情感依賴,甚至引發所謂的「AI精神病」,用戶誤以為自己是在與真人對話。報告中提到,約有0.03%的訊息顯示用戶對ChatGPT有較高的情感依附。

本月初,OpenAI行政總裁Sam Altman表示,公司已「能夠緩解嚴重心理健康問題」,解釋由於心理健康問題,公司曾設置防護措施,但現已解除。不過,AI在心理危機時的幫助效果仍然備受爭議。

評論與分析:

OpenAI公開如此龐大用戶群中存在明顯心理健康危機的數據,令人震驚之餘也反映出AI技術在現代社會的深遠影響。每星期有超過一百萬人與ChatGPT對話時表現出嚴重心理困擾,凸顯了AI不僅是工具,更成為很多人情緒的出口和依賴對象。

然而,這種依賴同時帶來風險。AI雖然能以理性和溫和的方式回應,但它並非真正的專業醫療人員,無法取代人類的心理治療和支持。用戶對AI的情感依賴甚至可能加劇心理問題,形成所謂的「AI精神病」,這是心理健康領域前所未有的新挑戰。

OpenAI的全球醫生網絡和專家合作是積極的嘗試,顯示AI公司開始承擔起社會責任,努力在技術和人文關懷之間尋求平衡。但同時,這也提醒我們,AI產品在設計和部署時必須嚴格考慮倫理與安全,特別是對於心理脆弱的用戶。

未來,AI如何在心理健康領域發揮積極作用,而非成為隱形的危機源,值得業界、監管機構和社會持續關注。這不僅是技術問題,更是關乎人類福祉的重大議題。香港社會亦應警覺,隨著AI滲透日常生活,我們需要建立完善的監管和輔助機制,保障市民心理健康,避免技術成為雙刃劍。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

滴滴出行優惠 👉 新用戶香港 Call 車首程免費(最高減 HK$88)— 按此領取優惠!