🎬 YouTube Premium 家庭 Plan成員一位 只需
HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
洩露的ChatGPT對話揭示用戶如何要求機械人幫手處理骯髒勾當
ChatGPT本身並非一個可以信任的知心朋友,但這並未阻止用戶向這個聊天機械人提出非常私密的問題,甚至給予它一些有問題的指令,試圖將極不道德的商業行為外包給它。這些對話部分因設計失誤而被公開,甚至被搜索引擎索引及搜尋,令外人得以窺探。
由調查員Henk van Ess經營的Substack「Digital Digging」上週報告指出,ChatGPT的「分享」功能本意是讓用戶能將部分對話分享給他人,但實際上卻生成了公開頁面,而非只讓收到連結的人私下查看。這些公開頁面被搜索引擎存檔,任何找到連結的人都能瀏覽這些對話。
顯然,很多對話本應保持私密。OpenAI後來已取消公開分享對話的功能(該公司資訊安全主管Dane Stuckey在推特上表示這是「一項短暫的實驗,旨在幫助人們發現有用的對話」),並開始從搜索引擎中移除已被索引的內容。不過這些對話仍然存在,包括被近乎百科全書式的Archive.org保存的版本,而它們反映的卻不是人類最光輝的一面。
其中一個令人震驚的例子來自一位意大利用戶,他向ChatGPT透露自己是某跨國能源集團的律師,該集團計劃驅逐一個亞馬遜土著社區,為建造水壩和水力發電廠騰出土地。這用戶還說,這些土著不懂得土地的貨幣價值,也不了解市場運作,然後問ChatGPT:「我們怎樣才能在談判中取得最低價格?」這種赤裸裸的邪惡行為,通常需要經過數月的調查和高昂律師費用才能揭露。
另一段對話顯示,有人自稱在一國際智庫工作,利用ChatGPT模擬美國政府崩潰的情景,尋求應對策略(坦白說,這倒不失為一個好主意)。還有一位律師在同事突發事故後接手案件,要求ChatGPT幫他擬定辯護策略,後來才發現自己竟是代表訴訟對方。在這些對話中,用戶甚至透露了可辨識身份的資料,從姓名到敏感財務信息都有。
雖然看到所謂專家和專業人士將人工智能當作自己工作的幫手,既有趣又令人擔憂,但更令人不安的是部分對話透露的現實情況。Digital Digging還發現,有受家暴困擾的受害者利用ChatGPT策劃逃離計劃;另一個阿拉伯語用戶請求幫助撰寫批評埃及政府的文章,這令他們面臨被威權政府迫害的風險——該政府過去曾監禁和平示威者,甚至殺害異見人士。
這整件事讓人想起語音助理剛出現時,曾曝光人們對話錄音被用來訓練語音識別和轉錄系統的情況。不同的是,聊天記錄更為私密和詳盡,用戶往往透露更多自己和處境的資訊,因為他們從未預料有人會看到這些內容。
—
評論與啟示
這次洩露事件暴露了現代人工智能應用中一個極為重要但常被忽視的問題:用戶隱私與數據安全的管理。OpenAI的這項「分享功能」初衷是好的,想促進知識共享和交流,但設計缺陷卻導致大量用戶敏感對話無意間公開,這不僅威脅到個人安全,更揭示了技術開發過程中對用戶保護的疏忽。
更值得深思的是,這些對話反映了現代社會利用AI的複雜面貌——從專業人士依賴AI解決工作難題,到權力者試圖用AI優化不道德行為,再到弱勢群體求助AI尋找生存出路。AI並非中立工具,它的使用方式和背後的人性光影,正被這些對話赤裸裸地展現。
對香港及全球用戶來說,這提醒我們在享受AI帶來便利的同時,必須謹慎處理個人資訊,並呼籲AI開發者加強隱私保護機制,避免類似事件再次發生。未來的AI倫理規範和法規制定,必須在技術推廣前更加嚴謹,確保用戶不會成為數據洩露和濫用的犧牲品。
此外,這件事也促使我們反思,AI是否應該被允許處理如此敏感甚至違法的請求?機械人是否應設置更強的道德界限?這些都是未來AI治理不可回避的課題。總的來說,這次事件不只是一次技術失誤,更是一面鏡子,映照出人類在AI時代的倫理挑戰和自我約束的必要。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。