秘密用ChatGPT做心理師?專業信任面臨大考驗!

Ai




我嘅治療師竟然暗地裡用ChatGPT?

喺矽谷幻想中,未來嘅AI模型可以咁有同理心,以至於我哋會用佢哋做心理治療師。佢哋可以為數以百萬計嘅人提供心理健康服務,唔使受制於人類治療師嘅繁複條件,好似要讀研究生、買醫療責任保險,甚至唔使瞓覺。但喺現實世界,情況就完全唔同。

上星期,我哋報道咗一單關於啲病人發現自己嘅治療師暗地使用ChatGPT嘅故事。喺某啲情況下,甚至唔係咁隱秘:有位治療師喺網上會診時不小心分享咗自己嘅電腦畫面,病人睇到佢即時打入ChatGPT嘅私密想法,AI再建議回應,治療師就直接照搬。呢個故事係我最近最鍾意嘅AI新聞,因為佢真實反映咗當人哋按科技公司指示去用AI時,會發生嘅混亂。

Laurie Clarke寫嘅呢篇報道指出,AI喺治療領域有潛力。年頭我寫過一篇關於首個專為治療設計嘅AI機械人臨床試驗,結果相當樂觀!但治療師暗中用未經專業審核嘅AI模型,係另一回事。我同Laurie Clarke傾過,想了解更多佢嘅發現。

病人發現治療師偷偷用AI後,治療師嘅反應點?佢哋係咪想隱瞞?

Laurie話,報道中所有例子嘅治療師都冇事前向病人透露會用AI。唔論佢哋係咪真係想隱瞞,一旦曝光,外界就會覺得佢哋係刻意隱藏。Laurie覺得,治療師絕對應該事先告知病人會唔會用AI同點用,否則被揭發後,病人會好唔舒服,對治療師建立嘅信任亦會造成無可挽回嘅損害。

治療師用AI係想慳時間?定真係認為AI可以帶來新嘅洞見?

有啲治療師視AI為節省時間嘅工具,特別係整理病歷記錄呢啲繁瑣工作,因為好多治療師覺得寫筆記好煩。大部分治療師都對用AI提供治療建議持懷疑態度,佢哋更願意請教上司、同事或者參考文獻案例。佢哋亦好擔心將敏感資料輸入AI工具。

有研究顯示,AI可以喺一些結構化、標準化嘅治療方法,例如認知行為治療(CBT),表現得幾好。但嗰啲AI係專門為此目的設計,唔同於通用型嘅ChatGPT。

如果用AI治療出錯,會點?倫理團體同立法者有冇關注?

目前,美國輔導協會等專業團體建議唔好用AI工具去診斷患者。未來可能會有更嚴格嘅法規限制。例如內華達州同伊利諾州最近就通過法例,禁止喺治療決策中使用AI,其他州份可能跟隨。

OpenAI嘅Sam Altman話,有好多人成咗用ChatGPT做「某種治療師」,佢覺得係件好事。你點睇科技公司對AI治療能力嘅期望係咪過高?

Laurie認為科技公司其實係微妙咁推動呢種用法,因為用AI「治療」係一個令用戶對產品產生依賴嘅途徑。但問題係,呢啲工具提供嘅唔係真正嘅治療。真正嘅治療唔係淨係安慰你、認同你講嘅一切。Laurie從未期待過一場真正嘅面對面治療,因為通常都幾唔舒服甚至痛苦,但呢啲正正係治療嘅重點:治療師應該挑戰你、引導你、努力理解你。ChatGPT完全做唔到呢啲。

評論與啟示:

呢篇報道真係好犀利,揭示咗AI喺心理治療領域嘅現實問題。科技公司推崇AI作為人人可用嘅「治療師」固然吸引,但現實係,AI未能代替人類治療師嘅情感深度與專業判斷。治療唔止係安慰,更係挑戰、發掘問題根源嘅過程,呢啲都唔係ChatGPT咁嘅通用AI可以輕易做到。

治療師暗中使用未經審核嘅AI工具,唔單止違反倫理,更可能損害病人信任。喺心理健康如此敏感嘅範疇,透明度同誠實係最基本嘅要求。AI可以係輔助工具,例如幫助整理筆記,但唔應該成為決策者。

未來,立法同專業規範必須跟上AI技術嘅發展,確保病人安全同權益。作為用戶,保持警覺,了解自己接受嘅治療背後用咗啲咩技術,係保障自己嘅重要一步。

最後,呢件事亦提醒我哋:科技係工具,真正嘅治療係人與人之間嘅信任、理解同挑戰,AI再強大,都唔應該取代呢啲人性核心。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

✨🎱 Instagram留言 →

AI即回覆下期六合彩預測

🧠 AI 根據統計數據即時生成分析

💬 只要留言,AI就會即刻覆你心水組合

🎁 完!全!免!費!快啲嚟玩!

IG 貼文示意圖 AI 即時回覆示意圖

下期頭獎號碼

📲 去 Instagram 即刻留言

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗