自動武器的道德辯論:矛盾與未來

Ai

矽谷正在討論AI武器是否應該有決定殺人的權力

在九月底,美國Shield AI的聯合創辦人Brandon Tseng保證,美國的武器永遠不會完全自動化——即由AI算法作出最終的殺人決定。“國會不會同意這種做法,”這位國防技術創辦人告訴TechCrunch。“沒有人會同意。”

然而,Tseng言之過早。五天後,Anduril的聯合創辦人Palmer Luckey表達了對自動化武器的開放態度,或者至少對反對這些武器的論點表示高度懷疑。Luckey在本月早些時候於Pepperdine大學的講話中說,美國的對手“使用一些聽起來很好的短語:‘你難道不同意機器人不應該決定誰生誰死嗎?’”Luckey說。“而我的觀點是,一個不能區分載滿孩子的校車和俄羅斯坦克的地雷,有什麼道德高地可言?”

當被要求進一步評論時,Anduril的發言人Shannon Prior表示,Luckey並不是說應該讓機器人自行決定殺人,而是他對“壞人使用壞AI”表示擔憂。

過去,矽谷一直偏向謹慎行事。以Luckey的聯合創辦人Trae Stephens為例。“我認為我們正在構建的技術使人類能夠在這些事情上做出正確的決定,”他去年告訴Kara Swisher。“因此,在所有可能涉及致命性的決定中,都有一個負責任的、可追責的當事人在其中。”

Anduril的發言人否認Luckey和Stephens的觀點之間存在任何不一致,並表示Stephens並不是說人類應該總是做出決定,而是應該有一個負責任的人。

公平而言,美國政府本身的立場也同樣模糊不清。美國軍方目前並不購買完全自動化的武器。儘管有些人認為地雷和導彈等武器可以自動運行,但這與例如能夠在沒有人工干預的情況下識別、獲取並射擊目標的炮塔系統有質的不同。

美國並沒有禁止公司製造完全自動化的致命武器,也沒有明確禁止它們向外國出售這類武器。去年,美國發布了更新的軍事AI安全指導方針,得到了許多美國盟友的認可,並要求高級軍事官員批准任何新的自動化武器;然而,這些指導方針是自願的(Anduril表示它承諾遵循這些指導方針),而美國官員一直表示現在“不是考慮對自動化武器進行任何有約束力禁令的合適時機”。

上個月,Palantir的聯合創辦人和Anduril的投資者Joe Lonsdale也表達了對完全自動化武器的考慮。在智庫Hudson Institute舉辦的一個活動中,Lonsdale對這個問題被簡單地定義為是或否感到沮喪。他提出了一個假設情境,即中國已經接受了AI武器,但美國每次開火都必須“按下按鈕”。他鼓勵政策制定者對武器中的AI程度採取更靈活的態度。

“你很快會意識到,如果我只是制定一個愚蠢的自上而下的規則,那我的假設是錯誤的,因為我是一個從未參與過這場遊戲的工作人員,”他說。“我可能會在戰鬥中摧毀我們。”

當TechCrunch要求Lonsdale進一步評論時,他強調國防技術公司不應該是制定致命AI議程的主導力量。“我所說的關鍵背景是,我們的公司不制定政策,也不想制定政策:制定政策是選舉官員的工作,”他說。“但他們確實需要教育自己,了解細微差別,以便做好工作。”

他還重申了對考慮更多武器自動化的意願。“這不像你所說的那樣是二元的——‘完全自動化或不自動化’不是正確的政策問題。對於你可能讓士兵做什麼以及讓武器系統做什麼,有幾個不同維度的複雜調整,”他說。“在政策制定者制定這些規則並決定在何種情況下需要設置調整之前,他們需要了解遊戲,了解壞人可能在做什麼,以及為了保護美國人的生命需要做什麼。”

長期以來,活動家和人權組織一直試圖建立對自動化致命武器的國際禁令——美國一直拒絕簽署這些禁令。但烏克蘭戰爭可能已經改變了反對者的立場,提供了大量的戰鬥數據和一個國防技術創辦人可以測試的戰場。目前,公司的武器系統中集成了AI,儘管它們仍然需要人類做出最終的殺人決定。

同時,烏克蘭官員推動更多武器自動化,希望這能讓他們在對抗俄羅斯時佔據上風。“我們需要最大限度的自動化,”烏克蘭數字轉型部長Mykhailo Fedorov在接受《紐約時報》採訪時說。“這些技術對我們的勝利至關重要。”

對於矽谷和華盛頓的許多人來說,最大的擔憂是中國或俄羅斯首先推出完全自動化的武器,迫使美國不得不跟進。在去年的聯合國AI武器辯論中,一位俄羅斯外交官明顯含糊其辭。“我們理解對於許多代表團來說,優先事項是人類控制,”他說。“對於俄羅斯聯邦來說,優先事項有些不同。”

在Hudson Institute的活動中,Lonsdale表示,科技行業需要自行承擔起“教導海軍、教導國防部、教導國會”的責任,了解AI的潛力,“希望能讓我們領先於中國。”

Lonsdale和Luckey所屬的公司正在努力讓國會聽取他們的意見。根據OpenSecrets的數據,Anduril和Palantir今年在遊說上的花費累計超過400萬美元。

編者註:本文更新了更多關於自動化武器的描述語言。

編輯評論

這篇文章揭示了AI武器技術與倫理之間的尖銳矛盾。從技術角度來看,AI武器能夠提高戰場上的效率和精確度,減少誤殺平民的風險。然而,這同時也引發了對AI自主決策的道德和法律問題。當AI系統被賦予生殺大權,人類是否能夠完全信任這些系統?這些問題不僅涉及技術層面,更涉及人類社會的基本價值觀和倫理框架。

從國際政治的角度來看,AI武器的競賽無疑會加劇大國之間的軍備競賽。中國和俄羅斯如果率先部署完全自動化的武器,將迫使美國不得不跟進,這將進一步推動全球軍事自動化的進程。然而,這樣的競賽可能會導致更多的不穩定和不確定性,甚至有可能引發新的冷戰。

在這樣的背景下,科技公司和政策制定者需要更加緊密地合作,制定出合理的規範和標準,確保AI技術的發展不會偏離人類社會的基本價值觀。與此同時,國際社會也需要加強對話,尋求達成共識,避免AI武器技術的濫用和軍事化。這是一個需要全球共同努力解決的複雜問題。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Chat Icon