AI戰爭的隱憂:風險與挑戰解析

Ai

AI在軍事中的最大問題

人工智能(AI)的出現帶來了巨大的機遇和風險,這對於私營部門和軍事領域都是如此。AI在軍事上提供了許多優勢,但同時也帶來了嚴重的問題需要考慮。本文探討AI在戰爭中使用的主要問題以及應對措施。

為何重要

2017年,俄羅斯總統普京曾預言:「誰在這個領域(AI)成為領導者,誰就將成為世界的統治者。」AI自那時以來已經大幅進步,中國、俄羅斯和美國都在各自的計劃中投入了大量資源。AI在戰爭中並非遙遠的未來問題,而是需要我們全力關注的當代現象。

偵測與漏洞

儘管AI在戰爭中可能非常強大,但訓練演習仍暴露出重大缺陷。美國海軍陸戰隊在一個由國防高等研究計劃署(DARPA)開發的項目中成功欺騙了一個先進的安全AI。八名海軍陸戰隊員在六天內走到AI前進行測試。當機器「學會」檢測人員後,第七天進行測試,八名海軍陸戰隊員嘗試繞過傳感器。

所有八名海軍陸戰隊員都成功了,通過創意的方法騙過了AI系統。一對海軍陸戰隊員藏在紙箱中,另一人偽裝成樹木,還有一對人翻滾到傳感器前而未觸發它。這個實驗顯示算法很容易被創意思維所繞過。同樣,高度先進且昂貴的邊界「智慧牆」仍然容易被熟悉技術局限的走私者所擾亂。

AI在特定的封閉任務中輕易超越人類,但在人類的創意開放任務中仍然處於劣勢。AI僅能依賴輸入的數據,而面對全新現實時會顯得無用。

倫理

AI在戰爭中最令人擔憂的前景之一是其在致命武力上的使用。這並非新問題,國際機構早在2012年就警告過「殺手機器人」。如前所述,AI已經在識別人類上存在困難。分辨平民和戰鬥人員更加困難。自動化武器系統不會有同情心或道德顧慮,它會毫不猶豫地行動。

這個問題還涉及到如果AI犯下戰爭罪,誰該負責。如果無人機在戰區誤殺一家人,誰該承擔責任?

美國對人類監督有明確指導方針,但其他國家或非國家行為者可能不遵循相同規則。

監管

對軍事化AI的監管不僅面臨實際問題,還有眾多倫理考量。其中之一是技術進步的速度。與私營部門一樣,AI的進步速度超過立法者的立法速度。這對於立法過程漫長的國家尤其嚴重,而對於典型的專制政權敵對的民主國家則不然。

另一個問題是國際法規需要簽署國誠信行事。歷史顯示這種方法很少奏效。20世紀20年代,全球大國試圖通過限制新戰艦的大小來緩和緊張局勢。雖然最初成功,但最終在1930年代被拋棄。同樣,尼克松政府試圖通過戰略武器限制談判(SALT 1和2)來緩和與蘇聯的緊張局勢。SALT II於1979年簽署,但在蘇聯入侵阿富汗後未能被批准。

美國和俄羅斯之間的關係惡化以及與中國的緊張局勢使當前局勢更加複雜。世界大國之間可能缺乏足夠的信任來實現全面的AI監管。此外,中東的許多非國家行為者幾乎肯定會毫無顧忌地部署自動武器。

信任

採用AI於軍事用途的最後但關鍵的障礙是制度上的。簡而言之,軍事本身需要被說服。2023年10月,太空部隊因安全問題暫停使用生成式AI。海軍對AI的軍事使用現狀同樣不滿意。儘管AI能夠在數秒內篩選大量數據,但它無法充分向人類操作員解釋其推理,讓人們對其建議感到放心。

結論

AI提供了若干軍事優勢,但同時也存在一些重大缺陷。實驗表明,在開放環境中,人類仍能超越機器。AI在某些限制下總能超越人類,但在即興發揮方面仍無法與人類競爭。道德問題或許是最大的擔憂。AI會毫不猶豫地執行任務,但在不當的手中,它會毫無節制地進行暴行,即使是最冷酷的人也不願意這樣做。同樣,立法者要跟上最新進展將非常困難,而外交將充滿互不信任。AI軍備競賽是不可避免的。

最後,地面上的士兵會難以信任AI來保護他們的生命。信任很難建立,但卻很容易被打破。儘管人類在指揮中已經並將繼續犯下巨大錯誤,但AI在戰爭中首次出現錯誤可能會不可逆轉地損害其聲譽。AI所承諾的所有巨大可能性,可能會相形見絀於它們帶來的現代戰爭新問題。然而,不為軍事開發AI可能帶來更大的危險。

編者評論

這篇文章深入探討了AI在軍事應用中的潛在問題和挑戰,揭示了技術進步和倫理考量之間的矛盾。AI在戰爭中的應用不僅涉及到技術的可行性,還涉及到倫理、法律和信任等多方面問題。特別是在國際關係日益緊張的背景下,如何有效監管AI成為一大挑戰。文章提醒我們,技術的進步不應盲目追求,而應充分考慮其可能帶來的負面影響和風險。這也引發了對未來戰爭形式的思考:在技術和人類智慧之間,如何找到一個平衡點,確保技術的使用不僅是有效的,更是安全和道德的。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *