維基百科淪為AI假資訊的溫床!

Ai

人們正在用AI生成的內容填充維基百科

隨著生成式AI的興起,人們開始用AI產生的虛假信息填充維基百科。這個問題如此普遍,以至於維基百科現在專門成立了一個工作小組來清理這些內容。

根據週三的報告,WikiProject AI Cleanup成立的原因是維基百科的志願者開始注意到「不自然的寫作痕跡,顯示出明顯的AI生成跡象」。清理工作小組的創始成員Ilyas Lebleu向404 Media透露,他們的團隊利用「一些最惡劣的生成文章例子」來識別常見的AI短語,甚至能夠用ChatGPT複製出這些內容。

其中一個例子是關於一座從未存在過的600年奧斯曼堡壘Amberlisihar的虛構信息。對於不知情的讀者來說,有關堡壘建造的段落可能看起來像是人類撰寫且可信的,但文章中超過2,000字的內容都是虛構的,僅僅是以一些真實但相對瑣碎的細節來支撐。

並非所有AI生成的維基百科內容都如此詳盡。有人將AI錯誤信息添加到已存在且可靠的維基百科文章中,使得普通讀者更難分辨什麼是真實的,什麼不是。在一個案例中,有人在關於一種名為Estola albosignata的甲蟲的文章中添加了AI生成的文本,雖然看似引用正確,但實際上引用指向了一篇關於不相關蟹類的法文論文。

Lebleu表示:「[該論文]完全沒有提到甲蟲。這增加了一層複雜性,如果來源不是英文,對大多數讀者和編輯來說,更難察覺問題。」

值得注意的是,維基百科本身——或更準確地說,運營它的團隊——並沒有使用大型語言模型來填充其虛擬頁面。相反,一些志願者維基百科編輯不知為何使用像ChatGPT這樣的語言模型生成與特定主題相關的內容,然後手動將其添加到維基百科文章中。這種行為背後的動機無從得知。作為志願者,維基百科編輯並不會因為他們的工作而獲得報酬,因此排除了任何財務利益。雖然一些使用AI的編輯可能真心認為他們在提供幫助,但其他人可能是在進行一種更新的網絡惡作劇。

404的作家Jason Koebler在X(原Twitter)上表示:「維基百科可能是人類歷史上最偉大的跨文化合作,但現在正被AI搞得一團糟,給已經疲於奔命的志願編輯帶來更大負擔。」

評論與分析

這篇文章揭示了AI技術的濫用如何影響維基百科這類公共資訊平台的可信度。AI生成內容的出現,無疑為資訊的真偽鑑別增添了新的挑戰。維基百科作為一個開放的知識平台,其編輯模式本身就依賴於社群的自我監管。然而,AI生成的內容卻能輕易混淆視聽,考驗著編輯的警覺性和辨識能力。

對於香港及全球的讀者來說,這不僅僅是維基百科的問題,更是整個互聯網生態的挑戰。隨著AI技術的進步,如何確保資訊的準確性和可靠性,已成為一個亟待解決的問題。我們需要更多的技術手段和社群合作來對抗這種信息污染,並且教育用戶提高對網絡內容的辨識能力。

這也反映了科技進步帶來的倫理問題,我們必須重新思考AI技術的應用範疇和道德界限,確保科技為人類帶來的益處多於弊端。維基百科的這場「AI戰役」,提醒我們在擁抱科技的同時,必須保持警惕。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *