Sam Altman 警告:用 ChatGPT 做心理治療冇法律保密保障
ChatGPT 用家如果考慮用呢個 AI 應用程式作心理治療或者其他情緒支援,可能要三思。OpenAI CEO Sam Altman 最近喺 Theo Von 嘅播客節目《This Past Weekend w/ Theo Von》就講到,AI 業界而家仲未搞掂點樣保障用戶嘅私隱,尤其係涉及好私人嘅對話,因為同 AI 講嘢冇醫生同病人之間嘅保密權。
Altman 回應有關 AI 同現時法律制度點樣配合嘅問題時話,因為而家未有針對 AI 嘅法律或者政策框架,用戶同 AI 嘅對話冇法律保密嘅保障。
佢話:「人哋會同 ChatGPT 講生活入面最私密嘅嘢,好多年輕人尤其會用 ChatGPT 做心理治療師或者人生教練,諗緊點解決啲關係問題,問『我應該點做?』。而家如果你同心理醫生、律師或者醫生講呢啲嘢,係有法律保密嘅,醫生同病人嘅保密權、律師保密權等等,但我哋未搵到方法喺同 ChatGPT 傾偈時做到呢啲保密。」
Altman 仲提到,呢種情況會令用戶喺面對訴訟時有私隱風險,因為依家 OpenAI 有法定責任要交出用戶嘅對話記錄。
佢話:「我覺得呢樣嘢好亂,我哋應該有同心理治療師對話嘅私隱保障一樣,去保障同 AI 對話嘅私隱,呢樣嘢一年前根本冇人諗過。」
OpenAI 明白呢個私隱問題可能會阻礙用戶廣泛採用 AI。除咗訓練 AI 需要大量嘅網絡數據,喺法律上亦可能要提供用戶對話數據。OpenAI 目前正為咗一單涉及《紐約時報》嘅訴訟抗辯法院命令,該命令要求保存全球數以億計 ChatGPT 用戶嘅聊天記錄(企業版用戶除外)。
OpenAI 喺官網聲明話佢哋正就呢個命令提出上訴,認為呢個命令「過份擴張」。如果法院可以凌駕 OpenAI 自己嘅數據私隱政策,公司將來可能要面對更多因法律調查或者執法需求而交出用戶數據嘅要求。現時科技公司經常收到傳票,要交出用戶數據協助刑事調查。但近年因為法律限制咗某啲自由權利,例如女性選擇權,數碼數據嘅私隱問題變得更加敏感。
例如美國最高法院推翻 Roe v. Wade 案判決後,有用戶轉用更注重私隱嘅經期追蹤應用程式,甚至使用 Apple Health 嘅加密記錄功能。
Altman 喺訪問中亦問主持人 Theo Von 自己用 ChatGPT 嘅情況,Von 表示因為私隱顧慮唔係好常用。Altman 回應話:「我覺得好合理,係應該喺法律私隱清晰之前,唔好用 ChatGPT 太多。」
—
評論與啟示
Sam Altman 直言不諱指出 AI 對話缺乏法律保密保障,揭示咗人工智能技術快速發展背後嘅一大倫理與法律灰色地帶。用戶越來越多地依賴 AI 進行心理輔導或情緒支持,但目前法律框架未能跟上,導致用戶在享受便利同時,私隱風險大增。
呢個問題挑戰咗我哋對「保密」嘅傳統理解:過去醫生、律師等專業人士嘅職業守則及法律保障,令用戶可以放心傾訴;但 AI 係由科技公司運營,訊息可能被用於訓練模型或應法律要求提供,令用戶處於極不對等嘅弱勢。
OpenAI 反映出嘅法律挑戰,亦提醒全球監管機構急需制定針對 AI 嘅專門政策,確保用戶數據既受保護,又能促進技術發展。否則,AI 可能因私隱問題而失去公眾信任,限制其應用範圍。
對香港及其他地區用戶嚟講,呢個議題尤其重要。香港嘅私隱法例相對健全,但面對 AI 嘅新挑戰,相關法律更新及監管策略亟需跟進,保障市民免受數據濫用之害。
最後,Altman 提及自己亦因私隱考慮而謹慎使用 ChatGPT,反映出即使係 AI 領導者,都意識到現時系統嘅不足。呢啲坦誠嘅對話,有助促進業界同監管層正視問題,推動更負責任嘅 AI 發展路向。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放