
父親要求OpenAI刪除ChatGPT對於他謀殺孩子的虛假指控
一名挪威男子發現ChatGPT錯誤地指控他謀殺自己的孩子,感到十分震驚。根據歐盟數字權利倡導組織Noyb於星期四提出的投訴,阿爾維·哈爾馬·霍爾門(Arve Hjalmar Holmen)決定查看ChatGPT對他的姓名輸入會得到什麼信息。結果他驚訝地發現,ChatGPT竟然輸出了一些虛假的聲明,聲稱他因「謀殺兩名孩子並企圖謀殺第三名兒子」而被判監禁21年,Noyb的新聞稿中提到。
ChatGPT的這個「虛構恐怖故事」不僅編造了根本不存在的事件,還混合了「明顯可識別的個人數據」,例如霍爾門孩子的實際數量和性別及其家鄉的名稱,與這些「虛假信息」交織在一起。Noyb的新聞稿指出,ChatGPT的這種「虛構謀殺犯和監禁」行為,違反了《通用數據保護條例》(GDPR)中的「數據準確性」要求,因為霍爾門無法輕易糾正這些信息,而這正是GDPR所要求的。
霍爾門認為,這些信息的存在使他的名譽受到威脅,儘管ChatGPT有「微小」的聲明提醒用戶核實輸出信息,但他無法知道有多少人可能接觸到這個虛假故事並認為其為真。「有些人認為‘沒有煙就沒有火’」,霍爾門在新聞稿中說。「最讓我害怕的是,竟然有人會讀到這些輸出並相信它是真實的。」
目前,ChatGPT在輸出中並未重複這些可怕的虛假指控。根據Noyb的說法,最近的更新似乎已經修正了這個問題,因為「ChatGPT現在在被問及某人時,還會搜索互聯網上的信息」。但由於OpenAI之前主張無法更正信息,只能屏蔽信息,因此這個虛假的孩子謀殺者故事可能仍然存在於ChatGPT的內部數據中。Noyb指出,如果霍爾門無法更正這些信息,那麼這就違反了GDPR。
Noyb表示,「雖然如果虛假個人數據未被分享,造成的損害可能較小,但GDPR對內部數據的要求同樣適用。」
OpenAI可能無法輕易刪除數據
霍爾門並不是唯一擔心ChatGPT的虛構內容會毀掉生活的用戶。自2022年底ChatGPT推出以來,幾個月後,一位澳大利亞市長就因為ChatGPT虛假聲稱他入獄而威脅提起誹謗訴訟。與此同時,ChatGPT還把一位真實的法律教授與虛假的性騷擾醜聞聯繫起來。《華盛頓郵報》報導。在幾個月後,一位廣播主持人因ChatGPT的虛假挪用公款指控而起訴OpenAI。
在某些情況下,OpenAI過濾了模型以避免產生有害的輸出,但Noyb暗示,這些虛假信息可能並未從訓練數據中刪除。然而,過濾輸出和發出聲明並不足以防止名譽損害,Noyb的數據保護律師克萊安西·薩爾德利(Kleanthi Sardeli)表示。「添加一個聲明,表示你不遵守法律,並不會使法律消失。」薩爾德利說。「AI公司也不能僅僅對用戶‘隱藏’虛假信息,同時內部仍在處理這些虛假信息。AI公司應停止將GDPR視為不適用的行為,因為它顯然是適用的。如果不制止虛構行為,人們很容易會遭受名譽損害。」
Noyb認為,OpenAI必須面對壓力,更加努力防止誹謗性輸出。Noyb已向挪威數據監管機構Datatilsynet提出投訴,要求OpenAI「刪除該誹謗性輸出並微調其模型以消除不準確的結果」。Noyb還建議對未來的類似違規行為施加「行政罰款」。
這是Noyb對OpenAI的第二次投訴,此前在四月向奧地利數據保護機構提出了投訴。隨著歐盟成員國對AI公司的監督加強,OpenAI成為了熱門的目標。在2023年,歐洲數據保護委員會迅速成立了一個ChatGPT工作組,調查數據隱私問題及可能的執法行動,因為ChatGPT開始發出用戶聲稱的誹謗性虛假信息。
迄今為止,OpenAI在至少一個成員國遭受了後果,該結果可能對Noyb的主張有利。2024年,由於數據洩露用戶對話和支付信息,OpenAI在意大利被處以1600萬美元的罰款和臨時禁令。為了恢復ChatGPT,OpenAI被要求進行改變,包括提供「一個工具,讓用戶可以請求並獲得更正其個人數據的權利,如果這些數據在生成內容時被不準確地處理。」
如果挪威數據監管機構類似地認為OpenAI不允許用戶更正其信息,OpenAI可能被迫在歐盟進行更多改變。該公司甚至可能需要徹底改革ChatGPT的算法。根據Noyb的說法,如果ChatGPT將用戶數據(如虛假的孩子謀殺者指控)「回饋」到系統中進行訓練,那麼個人將「無法百分之百確保這些問題輸出可以完全消除……除非整個AI模型重新訓練。」
這一事件揭示了AI在生成內容時可能出現的潛在風險,尤其是對個人名譽的影響。隨著技術的發展,如何平衡創新與保護個人權益將是一個日益重要的議題。AI公司必須承擔相應的責任,確保其生成的內容不會對他人造成不必要的傷害,而這也需要法律和技術的共同努力來解決。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。