
一名男子因ChatGPT搜索被描繪成殺人犯,隱私保護能否阻止你被誣陷?
如果你需要一個警告,千萬不要在ChatGPT中搜索你的名字!
最近,一名名叫阿爾維·哈爾馬·霍爾門的挪威男子與ChatGPT展開對話,想看看當他輸入自己的名字時,OpenAI的聊天機器人會提供什麼信息。他驚恐地發現,ChatGPT居然虛構了一個故事,聲稱他殺了自己的兒子,並被判入獄21年。最令人毛骨悚然的是,這個虛構的罪行周圍還包含了一些準確的、可識別的個人信息,例如他的孩子的數量和性別,以及他的家鄉名稱。
大型語言模型就像是自動更正的強化版,雖然它們似乎經常能正確回答問題,但結果往往也可能出現荒謬的情況,類似於你想打“鴨子”卻被自動更正成“鴨子”。霍爾門的問題可能只是極低概率的結果,但看起來卻像是有人利用個人信息來使其誹謗聲明看起來更加真實,這令人恐懼。人類已經造成了假新聞的問題,現在還有易於獲得的AI可以隨意抹黑任何人的名聲,這是任何人都不應承受的負擔。法律訴訟的威脅或許能在初期揭示出這些黑箱流程的運作,讓人們對這種有害的虛假信息有所警覺。
隱私權組織Noyb對霍爾門的案件表示關注,並提出申訴,要求將OpenAI可能使用的霍爾門的個人信息從其數據庫中刪除。然而,他們是根據GDPR進行的。像加州這樣的自由州擁有加州消費者隱私法來保護其公民的在線信息,但許多州在隱私保護和執行機制上卻遠遠落後。當Grok決定將埃隆·馬斯克稱為假信息的最大散佈者和俄羅斯資產時,這是否會引起一陣笑聲?是的。但是,如果黑箱的快速重新配置使得馬斯克或他的大佬手下能夠利用AI隨意散播假信息而不受懲罰,那就沒有那麼好笑了。
法律科技的下一個創新篇章:介紹Protégé™
LexisNexis Protégé™是一個新的AI助手,利用用戶或其組織控制的個性化選擇來優化個人的AI體驗。
這一事件突顯了隱私法律在當今迅速變化且事實核查不足的世界中的重要性。隨著AI技術的進步,我們需要重新思考如何保護個人信息,防止它被用於不當用途。無論是法律界還是普通人,都應該對這些技術的潛在風險保持警覺,並在法律框架內進行必要的改革,以確保我們的隱私不受侵犯。
在這個數字化日益增長的時代,如何平衡科技的發展與個人隱私的保護將成為我們必須面對的挑戰。隨著AI的普及,我們不僅要考慮它的便利性,更要深思它可能帶來的負面影響。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。