埃里克·施密特建議國家可能會進行相互保證的AI故障(MAIM)
美國不應該為AI創建自己的曼哈頓計劃,因為這樣的計劃會引發對手的報復。
前谷歌CEO埃里克·施密特和Scale AI創始人亞歷山大·王共同撰寫了一篇名為《超智能策略》的新論文,警告美國政府不要創建所謂的人工一般智能(AGI)曼哈頓計劃,因為這可能會迅速失控。論文的核心觀點是,這樣的計劃將導致對手的報復或破壞,因為各國將在戰場上競相擁有最強大的AI能力。相反,美國應該專注於開發能夠禁用威脅性AI項目的方法,例如進行網絡攻擊。
施密特和王對AI在藥物開發和工作效率等方面推進社會的潛力持樂觀態度。然而,各國政府則將其視為國防的下一個前沿,這兩位行業領袖擔心,各國將最終陷入創造武器的競賽,而這些武器的潛在危險性與日俱增。類似於國際協議如何限制核武器的發展,施密特和王認為,各國應該放慢AI的發展步伐,而不是在AI驅動的殺戮機器上相互競爭。
然而,施密特和王同時也在為國防部門開發AI產品。施密特的White Stork正在開發自主無人機技術,而王的Scale AI則與國防部簽署了合同,創建可以協助軍事規劃和作戰的AI“代理”。在多年不願意出售可能用於戰爭的技術後,矽谷現在愛國地排隊獲得可觀的國防合同。
所有軍事防務承包商都有推動動態戰爭的利益衝突,即使這在道德上並不合理。其他國家也有自己的軍工復合體,因此美國也需要維持一個。但最終,無辜的人們在強權的棋局中遭受苦難和死亡。
防務科技公司Anduril的創始人帕爾默·拉基認為,AI驅動的精確無人機打擊比發射可能影響範圍更大的核武器或安置沒有目標的地雷更安全。如果其他國家將繼續建造AI武器,我們也應該擁有相同的能力來作為威懾。Anduril最近向烏克蘭提供了無人機,能夠在敵方陣地上精確打擊俄軍裝備。
Anduril最近還展開了一場廣告活動,顯示基本文本“在Anduril.com工作”,上面覆蓋著用巨大的噴漆字體寫的“不要”,似乎玩弄著軍工復合體是反文化的概念。
施密特和王主張,人在任何AI輔助決策中應始終保持參與。但最近的報導顯示,以色列軍方已經依賴於故障的AI程序來做出致命決策。無人機一直是個有爭議的話題,批評者認為,當士兵不直接面對火力或未親眼目睹行動後果時,會變得更加麻木。圖像識別AI因出錯而聲名狼藉,我們正迅速走向一個無人機來回飛行、瞄準不精確目標的時代。
施密特和王的論文做出了很多假設,認為AI很快將變得“超智能”,能夠在大多數任務中表現得與人類一樣好,甚至更好。這是一個巨大的假設,因為最尖端的“思考”模型仍然會產生重大失誤,而公司則因AI輔助而湧入大量寫得不好的求職信。這些模型是對人類的粗糙模仿,行為往往不可預測且奇怪。
施密特和王正在銷售一個世界觀和他們的解決方案。如果AI將變得全能且危險,政府應該向他們尋求購買產品,因為他們是負責任的行為者。同樣,OpenAI的山姆·奧特曼也因對AI風險的高談闊論而受到批評,有人認為這是試圖影響華盛頓的政策並獲取權力。這就像是在說:“AI是如此強大,它可以摧毀世界,但我們有一個安全版本,樂意出售給你。”
施密特的警告不太可能產生重大影響,因為特朗普總統正在放寬拜登時期的AI安全指導方針,並推動美國成為AI的主導力量。去年11月,一個國會委員會提出了施密特所警告的AI曼哈頓計劃,隨著山姆·奧特曼和埃隆·馬斯克在華盛頓的影響力增強,這一計劃很容易獲得支持。如果這種情況持續下去,論文警告說,中國等國家可能會以故意降低模型質量或攻擊物理基礎設施等方式進行報復。這並不是一個不為人知的威脅,中國已經滲透到美國許多科技公司中,如微軟,而其他國家如俄羅斯則據報導使用貨櫃船攻擊海底光纖電纜。當然,我們也會對他們這樣做。這是一種相互的行為。
目前尚不清楚世界如何能達成任何協議以停止玩弄這些武器。在這種意義上,為了防禦而破壞AI項目的想法可能是一件好事。
在當前的科技競爭中,AI的發展不僅影響著國防和安全,還深刻改變了我們的社會結構。施密特和王的觀點固然值得重視,但他們同時也在推動相關技術的商業化,這樣的矛盾讓人質疑他們的立場是否真正出於對人類未來的考量。隨著AI技術的飛速發展,如何平衡技術進步與倫理道德的界限,成為全球亟待解決的重大課題。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
