全球最大人工智能學術會議出現AI代審查及論文現象
最近,世界最大型的機器學習及人工智能(AI)學術會議——2026年國際學習表徵會議(ICLR)爆出大量學術審查和論文中出現AI生成內容的現象。根據《自然》(Nature)雜誌報導,約有21%提交的審稿報告據稱完全由AI生成,而超過一半的審稿報告顯示有使用AI的痕跡。
在學術界,發表於權威期刊或大型會議的論文,通常都需要經過同行評審(peer review),即由同領域學者評估論文的質量及嚴謹性。不過,隨著ICLR 2026會議即將於巴西舉行,將有約11,000名AI研究者參與,令人擔憂的是,審查過程正面臨前所未有的挑戰。
美國初創公司Panagram專門提供AI生成文字檢測工具,對ICLR 2026提交的19,490篇研究和75,800份審稿報告進行分析。結果顯示,雖然論文中完全由AI生成的比例較低,僅約1%(199篇),但有9%的論文文本中超過一半內容是AI生成。至於審稿報告,則有21%被判定為完全AI生成,超過一半則存在AI協助的痕跡。這些數據目前僅由Panagram提供,尚未有獨立機構驗證。
卡內基梅隆大學的AI研究員Graham Neubig在收到一份疑似AI生成的審稿後,透過社交媒體尋求Panagram協助調查。哥本哈根大學的計算機科學家Desmond Elliott亦表示,他學生的論文曾收到一份「完全錯失論點」的審稿,學生懷疑是由大型語言模型(LLM)生成,Panagram的分析也證實該審稿為AI全自動產出。
這波AI生成審稿的氾濫已經對學術界產生實質影響。《自然》報導指出,許多作者在收到含有錯誤指控的AI審稿後,選擇撤回論文投稿。Neubig表示,AI和機器學習領域目前面臨審查危機,因為該領域過去五年迅速擴張,導致審稿資源緊張。
AI作弊問題早已在教育界引發關注,隨著ChatGPT等工具普及,美國部分教師甚至回歸傳統的課堂寫作和「藍皮書」考試,以遏止作弊。但問題已不再局限於學生階層,專業人士間也愈來愈普遍。紐約時報近期報導指出,美國法庭案件中亦出現AI生成的法律文件,甚至有大型語言模型虛構不存在的案例作為參考。資訊科技及顧問業界更難以避免AI「工作泥沼」問題。
—
評論與啟示
這次ICLR會議出現大規模AI生成審稿和論文的現象,反映出當前學術界在AI時代面臨的嚴峻挑戰。同行評審制度一向是維持學術品質的基石,然而AI技術的普及使得傳統審查流程的可信度受到嚴重威脅。當AI不僅是創作工具,更成為「代勞」的審稿者,學術誠信和知識產權的界線變得模糊。
這種現象揭示了兩個層面問題:一是學術界資源分配不均,審稿人數跟不上研究爆炸式增長;二是AI工具的便利性誘惑了部分學者和審稿者,在無適當監管和倫理指導下濫用AI。未來,學術界必須建立更嚴謹的AI使用規範,並且發展更有效的AI內容檢測技術,防止「假審稿」破壞科研生態。
此外,這也提醒我們,AI作弊問題已經從學生階段蔓延至專業領域,甚至是司法系統,這對社會公平和專業判斷帶來巨大挑戰。政府、企業和學術機構需協同合作,制定合適的監管政策和教育策略,確保AI技術造福人類,而非淪為誤導和欺詐的工具。
總括而言,AI帶來的便利同時伴隨著倫理與信任危機。如何在推動科技創新與維護學術及專業誠信之間取得平衡,是未來必須面對的重大課題。香港作為國際金融及科技重鎮,亦應密切關注此類趨勢,提早部署對應策略,保障本地科研及專業服務的公信力。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。