軍事自動化:人類戰士的未來危機

Ai

軍隊急於以AI機器人取代人類士兵,專家警告這將帶來災難

在2020年3月,隨著內戰在利比亞肆虐,一隊四旋翼無人機向利比亞國民軍的車隊逼近。這些自殺式無人機設計用以對敵方目標進行爆炸攻擊,最終摧毀了數輛由人類駕駛的卡車。令人不寒而慄的是,這次攻擊完全由無人機自主進行,沒有任何人類下達攻擊命令。

武裝機器人的興起

無論是在陸地、海洋還是空中,武裝機器人的興起已經逐漸將人類推離前線,取而代之的是武裝機器人。儘管如此,人類仍然保留著對戰場上機器人是否可以開火的最終控制權。然而,人工智能的最新進展可能會切斷人與機器之間的最後聯繫。如果這種情況發生,AI機器人的冷酷邏輯將成為決定戰場上誰生誰死的唯一因素。這種令人不安的步伐是否無可避免?在下一場戰爭中,真正的人類是否會在前線附近?

現今的軍事無人機讓人類能夠從十幾甚至數千英里之外執行重要任務。典型的例子是,在內華達州克里奇空軍基地的空調虛擬駕駛艙中,空軍人員控制著半個世界之外的武裝MQ-9死神無人機。人工智能的興起使這些無人機更加自主,能夠做出有限的導航和路徑規劃決策。我們生活在一個AI驅動的自駕車能夠讀取路標並駕駛的時代,這些車輛能夠作出可能傷害或殺死周圍人類的關鍵決策。讓機器人在戰場上做出生死決策似乎不再遙遠。

戰爭的規則變化

戰爭的一條顯著規則是,隨著武器越來越先進,人類越來越遠離殺戮的行為。早期的人類被迫使用手持武器如棍棒、石頭和刀具進行戰鬥,參與戰鬥時面臨與對手相同的危險。戰爭需要巨大的身體勇氣,需要冒著生命危險去奪取他人的生命。

然而,隨著武器的演變,人類可以在相對安全的位置殺死敵人,例如躲在樹後或建築物內。內燃機、火箭發動機、核武器和集成電路的發明極大地推動了遠程殺戮,使得僅需按下按鈕即可在數千英里外殺死目標。技術的進步使得不再需要那種原始的身體勇氣。

今日的共識是,決策過程中必須保留人類這一環節。人類必須研究可用的圖像、雷達和其他證據來確認目標的合法性和敵意,或在需要時命令無人機撤退。人類可能是模糊的傳感器、有缺陷的軟件、錯誤的AI邏輯以及其他未預見因素之間的唯一屏障,防止悲劇發生。

人類角色的挑戰

然而,這道人類防火牆可能無法持久。戰鬥中的一個真理是,誰先開火,誰就贏,而讓無人機等待人類決策可能會將主動權拱手讓給敵人。戰爭的核心是一場競爭,對於失敗者來說後果嚴重。這使得放棄任何優勢變得困難。

2020年3月的無人機攻擊可能預示著未來的走向。在俄羅斯,軍方幾乎十年前就開始討論大規模應用機器人和自主系統來將士兵從危險的戰鬥中移除,並壓倒對手的防禦,從而更容易進行後續打擊。

無人機對無人機的戰爭已經發生。在2024年3月的一次關鍵交戰中,俄羅斯的無人地面車輛在進攻中向烏克蘭陣地推進,結果被烏克蘭的第一人稱視角無人機瞄準並摧毀。在這次交戰中,雙方的系統均由人類操作員控制。

烏克蘭的高強度戰爭迫使其更加依賴自主武器。烏克蘭軍隊人力資源短缺,盡可能依賴無人機。烏克蘭的志願者多次表示,應該先讓機器人參戰,然後再由人類接手。

人類在戰爭中的道德勇氣

專家認為,“人類在環路中”是避免悲劇的必要手段,現在以及可預見的未來都是如此。現有的機器視覺系統容易犯不可預測且簡單的錯誤。

這些錯誤可能會帶來重大影響,例如使衝突失控,導致意外死亡和暴力升級。想像一下,自治武器射殺了一名非交戰士兵。這名士兵的死亡可能會將其國家捲入衝突。或者,自治武器可能會造成意想不到的傷害,特別是如果涉及自治核武器的話。

某些戰場的AI自主權更大時,對非戰鬥人員的傷害機會較少。保護海上船隻免受來襲導彈、飛機和無人機的自治武器風險不大。在海洋中的海戰中,不太可能有大量民用飛機飛行。

儘管不需要身體勇氣來奪取生命,人類在殺戮行為中仍保留了一種最後的勇氣:道德勇氣。人在奪取生命時應有最終責任的觀點由來已久。移除人類因素只會留下人工智能的冷酷邏輯,以及其中可能隱藏的錯誤邏輯。

如果授權自治武器開火於人類是不可避免的未來,AI能否像人類一樣有效地區分敵方戰鬥人員和無辜旁觀者?未來的軍隊是否會簡單地接受平民傷亡作為更快結束戰爭的代價?這些問題目前尚未得到解答。而人類可能沒有太多時間在未來強勢來臨之前解決這些問題。

編者評論

這篇文章揭示了人工智能在軍事中的潛力和風險。技術的進步雖然帶來了戰爭方式的革命性變革,但也引發了對人類控制和道德責任的深刻疑問。當AI在戰場上取代人類時,我們必須考慮技術失誤和道德責任的後果。AI的冷酷邏輯是否能與人類的道德勇氣相匹敵?這是我們在技術進步的同時,必須深思的問題。未來的戰爭可能不僅僅是技術的競賽,更是人類價值觀的考驗。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *