OpenAI行政總裁Sam Altman:用AI做心理治療仍存私隱風險
如果你仍然考慮用AI聊天機械人作為心理治療師,OpenAI行政總裁Sam Altman最近的講話或許會令你三思。
在近期於喜劇節目《This Past Weekend》與主持Theo Von的對談中,Altman坦言,AI行業尚未解決用戶私隱問題,尤其是涉及敏感對話時。與持牌專業人士不同,AI並不享有醫患保密權,法律上用戶與AI的私人對話並無保障。
Altman指出:「人們會向ChatGPT傾訴生活中最私密的事情,尤其是年輕人會用它作為心理治療師、生活教練,討論感情問題及尋求建議。」
然而,重大分別在於:「現時與心理治療師、律師或醫生談論這些問題,受法律保護……但我們仍未解決用戶與ChatGPT對話的法律保障問題。」
由於缺乏保密保障,AI治療過程中的對話有可能被他人查閱,甚至在法庭上被傳召。AI行業目前仍處於法律灰色地帶,美國政府亦正努力平衡聯邦與州政府在AI監管上的權力分歧。
雖然已有針對深偽技術的聯邦法例,但AI聊天數據如何被使用仍依賴州法律,這種零散的規範令用戶私隱難以保障,也可能阻礙AI技術的廣泛應用。更令人擔憂的是,AI模型訓練本已大量依賴網絡數據,部分情況下,AI生成的用戶對話甚至會被用作法律訴訟中的證據。
以ChatGPT為例,OpenAI因與《紐約時報》的法律糾紛,現時被法院要求保存所有用戶對話記錄,即使用戶已刪除。OpenAI正積極挑戰該裁決,嘗試推翻相關命令。
Altman坦言:「一年前沒有人會想到這個問題,現在形勢非常混亂。」
—
評論與啟示
Altman對AI私隱問題的坦白,揭示了目前AI技術與法律監管間的巨大鴻溝。用戶在享受AI帶來的便利與個人化服務時,往往忽視了對話數據的法律地位及潛在風險。尤其在心理健康這類極具私密性的領域,缺乏保密保障可能導致用戶信息外洩,甚至被用作法律證據,這對用戶的信任及心理安全造成嚴重威脅。
從更宏觀角度看,這反映出AI產業急速發展與現有法律體系未能及時配合之間的矛盾。聯邦與地方政府間缺乏統一監管框架,導致法規碎片化,令企業和用戶都處於不確定狀態。這不僅增加了法律風險,也可能拖慢AI技術的健康發展。
作為用戶,應保持警覺,避免將過於敏感的個人信息交予AI工具。作為監管者和行業領袖,則需攜手制定明確的數據保護規範,確保AI應用能在尊重用戶私隱的前提下推進。否則,AI再先進,也難以獲得公眾真正的信任與支持。
Altman的言論值得業界深思:AI不應只追求技術突破,更要以用戶安全和權益為核心,建立起真正負責任和可持續的AI生態系統。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放