
🎬 YouTube Premium 家庭 Plan成員一位 只需
HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
埃里克·施密特反對「AGI的曼哈頓計劃」
在周三發表的一篇政策文件中,前谷歌首席執行官埃里克·施密特、Scale AI首席執行官亞歷山大·王及AI安全中心主任丹·亨德里克斯表示,美國不應該追求一項類似於曼哈頓計劃的推動,以發展具有「超人類」智慧的AI系統,即通用人工智慧(AGI)。
這篇名為《超智能策略》的文件主張,美國如果積極尋求獨占超智能AI系統,可能會引發中國的激烈報復,這種報復可能以網絡攻擊的形式出現,從而使國際關係不穩定。
合著者寫道:「[一個]針對AGI的曼哈頓計劃假設對手會容忍持久的不平衡或全人類滅亡,而不是採取行動來防止它。起初是為了開發超武器和全球控制的推動,卻有可能引發敵對的反制措施和加劇緊張局勢,從而破壞該策略所聲稱要維護的穩定性。」
這篇由三位在美國AI行業中極具影響力的人物共同撰寫的文件,正值美國國會委員會幾個月前提出一項類似於「曼哈頓計劃」的努力,旨在資助AGI的發展,這一計劃以1940年代美國的原子彈計劃為藍本。美國能源部長克里斯·賴特最近表示,美國正處於「新的曼哈頓計劃」的開端,並與OpenAI聯合創始人格雷格·布洛克曼一起站在超級計算機基地前。
《超智能策略》挑戰了幾個月來一些美國政策和行業領導者所倡導的觀點,即政府支持的AGI開發計劃是與中國競爭的最佳方式。
施密特、王和亨德里克斯認為,美國在AGI方面的對峙狀況有些類似於互相保證毀滅的情況。正如全球大國不尋求對核武器的壟斷——這可能會引發對手的先發制人打擊——施密特和他的合著者主張,美國應該對於在極具力量的AI系統上競爭保持謹慎。
雖然將AI系統比作核武器聽起來可能過於極端,但世界領導人已經將AI視為一種重要的軍事優勢。五角大樓已表示,AI正在加速軍事的打擊鏈。
施密特等人提出了一個名為「互保AI故障」(Mutual Assured AI Malfunction,MAIM)的概念,政府可以主動禁用威脅性的AI項目,而不是等到對手將AGI武器化。
施密特、王和亨德里克斯建議美國應將重點從「贏得超智能競賽」轉向發展能夠威懾其他國家創造超智能AI的方法。合著者認為政府應該「擴大其網絡攻擊的武器庫,以禁用其他國控制的威脅性AI項目」,並限制對手接觸先進的AI芯片和開源模型。
合著者指出,AI政策界存在著一種二元對立的情況。一方面是「厭世派」,他們認為AI發展的災難性結果是必然的,主張各國應該減緩AI進展;另一方面則是「鴕鳥派」,他們認為各國應該加速AI發展,並基本上希望事情能夠好轉。
這篇文件提出了一種第三種方式:一種以防禦策略為重點的AGI發展的謹慎方法。
這一策略特別引人注意,因為施密特此前曾強調美國需要在開發先進AI系統方面與中國展開激烈競爭。就在幾個月前,施密特發表了一篇評論,稱DeepSeek標誌著美國在與中國的AI競賽中的一個轉折點。
特朗普政府似乎堅決推進美國的AI發展。然而,正如合著者所指出的,美國在AGI方面的決策並不在真空中存在。
隨著世界觀察美國推進AI的極限,施密特及其合著者建議,採取防禦性的方法可能更為明智。
在這篇文章中,我們可以看到對於AI發展的不同視角,尤其是當全球科技競爭加劇的背景下,施密特等人的觀點提供了一種新的思維方式。這種方法不僅強調了國際間的合作與防範,也提醒我們在追求技術進步的同時,必須考慮到其潛在的風險和後果。當我們面對AI的快速發展,或許應該更注重建立一個安全和負責任的技術生態系統,而不是單純追求技術的優越性。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。