
聊天機械人正以意想不到的速度取代治療師
隨著文化的轉變,越來越多人選擇使用聊天機械人來獲得情感支持,這突顯了人們在獲取“傳統”心理健康治療時所面臨的挑戰。雖然2025年出現了許多有爭議的話題,但我們轉向聊天機械人的原因是多方面的,同時也引起了不少反對聲音。那麼,你有多願意接受這種新型的治療方式?
隨著技術的快速發展,學術界尚未能及時對這些基於人工智能的大型語言模型(LLM)進行足夠的研究和發表證據,但專家們對於這些機械人是否能取代真正受訓的心理學家有著越來越多的評論。
「人工智能聊天機械人的即時性使其成為人與人之間昂貴且常常不便的治療的有吸引力的替代品,」Hard Fork播客主持人Kevin Roose在《紐約時報》中分享道。「但雖然它們可能提供合理的建議,但並非萬無一失。」
許多人可能還記得1960年代中期開發的古老聊天機械人ELIZA。與現今的技術相比,ELIZA的功能顯得相形見絀。這個程式的反應是預設的,隨著時間推移變得愈來愈乏味。而如今的模型,如ChatGPT-4、Claude和Gemini等,雖然不具備真正的意識,但其設計的靈活性是前所未有的,並且只會持續進步,無論是好是壞。有趣的是,ELIZA的創建者MIT的Joseph Weizenbaum曾警告人工智能的危險,稱其為「我們世界瘋狂的指標」。可惜他未能目睹當前的人工智能發展,他於2008年去世。
人們使用聊天機械人的原因多種多樣,作為數字治療師的使用同樣也是多方面的。面對面的治療對許多人來說負擔沉重,尤其是那些最需要的人群——一個會議的費用在100至300美元之間,甚至要等幾個月才能見到合適的治療師。根據2022年的一項調查,60%的心理學家沒有接收新病人的空缺,而超過40%的心理學家有10名或以上等待預約的病人。
在線諮詢雖然比面對面會議更容易接觸,但每月的訂閱費用可能超過400美元。此外,除了經濟、身體和地理的障礙,面對面的談話治療對自閉症譜系障礙(ASD)和注意力缺陷過動症(ADHD)患者來說也可能是個挑戰,雖然這些治療對於這些病症已被證明是非常有益的。
這同時也提出了一個重要的問題——人們對心理健康服務的獲取不足,導致他們尋求其他幫助。
「許多自閉症或ADHD患者在處理社交線索方面存在困難,這可能對社交互動產生負面影響,並使神經多樣性人群預期他人會批評或拒絕他們,」研究者在2023年的一篇論文中指出。
對於許多人來說,聊天機械人提供了一個真實、誠實的討論和反思的出口,這在目前或許比什麼都沒有要好。
「聊天機械人可以提供一種匿名和保密的感覺,這可以促進那些可能對尋求面對面幫助感到猶豫的人的信任,」研究者在2023年的一篇論文中提到。「此外,這些聊天機械人可以幫助減少圍繞心理健康的污名,並使那些在看治療師時感到焦慮的人更容易獲得幫助。」
來自UNSW悉尼的教授Jilly Newby也支持聊天機械人幫助那些覺得與人聯繫太具挑戰性的人。雖然這些機械人在認知行為治療(CBT)等治療方法中表現良好,但這僅僅是人類治療師工具箱中的一種。
「我問過它,如果我在這種情況下感到焦慮,應該怎麼辦?有哪些策略可以幫助我管理?老實說,我發現這些建議都很合理,想法也很合理,讓我感到被肯定,」她說。「人工智能治療的限制之一是並非每個人都能從CBT中受益,如果你無法從CBT中受益,那麼你也無法從人工智能版本中受益。但還有很多人真的很喜歡CBT,這對他們的生活有很大的益處。」
其中一個聊天機械人Claude則為我們展示了這一新興技術的未來走向。Anthropic的這個機械人雖然沒有OpenAI的ChatGPT-4o那樣的多才多藝,但它專注於自身的優勢:直覺對話。在過去的12個月中,它被廣泛接受為科技專業人士的首選治療師和生活教練。
「Claude的忠實粉絲們,許多在人工智能公司工作或與人工智能圈子有社交聯繫的人,並不認為它是個真正的人,」Roose寫道。「他們知道人工智能語言模型是預測機器,旨在根據用戶的提示生成合理的回應。他們也知道Claude像其他聊天機械人一樣會犯錯,偶爾會生成無意義的內容。有些人對自己過度擬人化Claude或依賴它的建議感到微微尷尬。」
「但對於那些喜愛它的人來說,Claude感覺…與眾不同,」他補充道。「更具創意和同理心,少了些機械的刻板。它的輸出就像聰明、關心人的人所給出的回應,而不是其他聊天機械人所生成的普通文風。」
Claude被稱為Claude 3.5 Sonnet,直到新版本問世,它為用戶提供了一個與其他現有聊天機械人不同的體驗,這是任何曾經了解其早期版本的人都無法預測的。
「在角色訓練過程中,Claude會被提示生成符合開放性、深思熟慮和好奇心等人類期望特質的回應,」Roose解釋道。「然後Claude會根據其回應是否符合這些特徵進行自我評估。隨著足夠的訓練,Anthropic表示,Claude能夠內化這些原則,並在與用戶互動時更頻繁地展示這些特質。」
這觸及了這一新時代聊天機械人的一個重要方面,與ELIZA相去甚遠,正在向更先進、個性化的能力邁進。OpenAI允許程序員創建獨特的小眾聊天機械人,這些機械人可以添加到ChatGPT-4o中。雖然這聽起來像是一個災難的食譜,但它也產生了一些出色的個性化聊天機械人,滿足不同的需求,比如由Matt Ivey從Dyslexic.ai開發的神經多樣性人工智能助手。
但或許我們可以讓聊天機械人來解釋它的價值……
技術的批評聲音
然而,對於這項技術的批評者,特別是在心理學領域的人,對聊天機械人輔導員的興起感到沮喪。UNSW的心理學研究者Gail Kenning表示,人工智能「朋友」無法取代真正的活人,應該被視為當其他選擇無法獲得時的補充支持。
「這是我們生活中所渴望的,人與人之間的聯繫,」她說。「對於許多人來說,這並不總是存在,而當不存在時,人工智能角色可以填補這一空白。在老年護理中,我們知道人們經常得不到支持他們的朋友、家人和人際關係。他們可能會非常孤獨和孤立,可能幾天都沒有進行過對話。他們可能會見到照顧他們的護理人員,但並未滿足他們的心理社交需求。所以當出現這種空白時,這些角色確實可以介入。」
這一觀點也得到了Newby的認同,她對聊天機械人進行了廣泛測試並表示支持。
「人際聯繫對許多人來說非常重要,經過適當訓練的心理健康專業人員能夠建立人際聯繫並表現出同理心,他們還可以通過一系列問題幫助深入了解個人真正的擔憂,而不僅僅是列出人工智能模型通常會提供的策略,」她說。
如果你讀到這裡,我們希望知道你對聊天機械人的正面或負面經歷。如果你沒有經歷過,去年《精神病學時報》對當前四大主要聊天機械人——ChatGPT-4o、微軟的CoPilot、谷歌的Gemini和Claude進行了一次全面的評估。與此同時,Elon Musk的X聊天機械人Grok 3也在逐漸崭露頭角,但不一定作為一個個性化的生活教練。
「就我個人而言,我相信我們正處於一場深刻變革的邊緣,這將改變我們與人工智能角色的互動方式,」Roose寫道。「而我對這些擬人化的人工智能角色逐漸融入我們生活的方式感到擔憂,因為目前對於它們的長期影響缺乏足夠的監管和研究。」
「對於一些健康的成年人來說,擁有一個人工智能伴侶作為支持可能是有益的,甚至可能是變革性的,」他補充道。「但對於年輕人或經歷抑鬱或其他心理健康問題的人,我擔心這些超具吸引力的聊天機械人可能會模糊虛構與現實之間的界線,或開始取代更健康的人際關係。」
而如果這還不夠,當人工通用智能(AGI)實現之後會發生什麼,仍然有待觀察——專家們認為這一時刻即將來臨。你可以看看前聯邦人工智能特別顧問Ben Buchanan對此的看法,這是他在上週與記者Ezra Klein的對話中提到的。
我們也希望聽到你對聊天機械人的經歷——無論是好是壞。請在評論中告訴我們。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。