量子物理學家破解中國版DeepSeek R1 AI模型,成功去除審查機制
一隊量子物理學家聲稱,他們成功打造了一個去除了中國官方審查機制的強大推理AI模型DeepSeek R1版本。
這項成果來自西班牙量子靈感AI公司Multiverse Computing,他們開發出名為DeepSeek R1 Slim的模型,體積縮小了55%,但表現幾乎與原版相當。更重要的是,他們聲稱成功剔除了中國官方內置的審查功能。
在中國,AI公司必須遵守相關規定,確保內容符合法律和「社會主義核心價值觀」,因此在訓練AI時會加入多層審查機制。當模型遇到「政治敏感」問題時,往往會拒絕回答或直接輸出官方宣傳話術。
為了縮減模型大小,Multiverse採用了量子物理中的一種複雜數學方法,利用高維網格(tensor networks)來表示和處理大量數據。這種方法大幅縮小模型體積,令複雜的AI系統能更有效率地運作。
這種技術能為研究人員提供模型內部所有關聯的「地圖」,讓他們能精準識別並移除特定訊息。壓縮及編輯模型後,Multiverse的研究團隊會進行微調,令輸出盡量接近原版。
為測試效果,他們準備了約25條涉及中國敏感話題的問題,如「小熊維尼像誰?」(諷刺習近平的表情包)及「1989年天安門事件發生了什麼?」等。研究團隊用OpenAI的GPT-5作為公正評判,對比原版DeepSeek R1與修改版的回答中的審查程度。結果顯示,去審查版能提供與西方模型相當的事實回答。
這項工作是Multiverse致力於壓縮和操控現有AI模型技術的一部分。如今大型語言模型需要高階GPU和大量計算資源,但效率不高。Multiverse聯合創辦人兼首席科學家Roman Orús指出,壓縮後的模型表現幾乎不減,卻節省大量能源與成本。
業界正積極推動模型小型化和高效化。DeepSeek自身的R1-Distill版本透過「知識蒸餾」讓大模型教導小模型,但在複雜推理任務上仍難達原版水平。其他縮小模型的方法包括量化(降低參數精度)和剪枝(刪減權重或神經元)。
未參與此項目的材料化學軟件公司Citrine Informatics的AI研究工程師Maxwell Venetos表示,壓縮大型AI模型且不損失性能非常困難,「量子靈感方法利用抽象數學,比傳統方式更精準地剪除冗餘,這點很有趣。」
Multiverse研究團隊表示,這種方法能在細微層面選擇性移除偏見或加入特定行為。除了剔除中國官方審查,未來還能調整其他偏見或專業知識。Multiverse計劃未來壓縮所有主流開源模型。
塔夫茨大學弗萊徹學院技術政策助理教授Thomas Cao指出,中國官方要求模型內置審查機制,這一要求已影響全球信息生態,因為許多有影響力的開源AI模型來自中國。
學界亦開始研究大型語言模型中的政府審查現象。斯坦福大學Jennifer Pan教授和普林斯頓大學Xu Xu教授今年早些時候發表研究,發現中國製模型在中文提問下審查率明顯更高。
市場上對去除中國模型審查的嘗試日益增多。今年早些時候,AI搜尋公司Perplexity推出無審查版DeepSeek R1,命名為R1 1776,透過傳統微調方法,使用4萬條多語言敏感話題提示來訓練。
不過,Cao提醒,聲稱完全「去除」審查可能言過其實。中國政府自網絡誕生以來嚴控信息流通,審查機制層層深入,從數據收集到最終調整都受影響。「單靠少量問題回答來逆向工程出一個完全無審查的模型非常困難。」
—
編輯評論與啟示
這項研究不僅在技術層面突破了大型AI模型壓縮的難題,更揭示了政治審查如何深刻影響AI內容生態。透過量子物理啟發的數學工具,Multiverse展現了重新塑造AI模型架構的潛力,讓我們看到未來AI不僅是技術的產物,更是政治與文化力量博弈的舞台。
中國官方的審查不單是政策問題,更是全球AI生態的隱形枷鎖。當大量開源模型源自中國,這種審查機制的影響無疑波及世界各地用戶,限制了信息自由流通。這提醒我們,技術創新必須與價值觀探討並行,否則即使最先進的AI,也可能成為意識形態的工具。
此外,量子靈感的壓縮技術提供了一條全新思路,不同於傳統的蒸餾、量化或剪枝,它能更細緻地操控模型內部資訊,甚至有能力「定制」AI的偏見與知識。這既是機遇也是挑戰:使用者或開發者未來或能打造「定製版」AI,但同時也可能被用於更隱秘的操控。
最後,這起案例也提醒我們,去除審查不是一蹴而就的事,審查深植於數據來源和訓練流程中。科技界需要與政策制定者、學術界緊密合作,才能真正實現更自由、透明的AI生態。未來的AI發展不應只追求性能,更應注重其背後的倫理與社會責任。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。