AI武器自主決策:道德與風險辯論升溫

Ai

矽谷正爭論是否應該允許AI武器決定殺人

在九月底,Shield AI的聯合創辦人Brandon Tseng宣誓,美國的武器永遠不會完全自動化,這意味著AI算法不會做出最終的殺人決定。這位國防技術公司的創辦人告訴TechCrunch:「國會不想要這樣,沒有人想要這樣。」

然而,Tseng的話說得太早了。五天後,Anduril的聯合創辦人Palmer Luckey表達了對自動武器的開放態度,或者至少對反對自動武器的論點表示了強烈的懷疑。在本月初於Pepperdine大學的一次演講中,Luckey說:「美國的對手喜歡使用聽起來很好的短語:你難道不同意機器人不應該決定誰生誰死嗎?」他接著說:「我的觀點是,一個無法區分滿載孩童的校車和俄羅斯坦克的地雷,哪裡有道德高地?」

當被要求進一步評論時,Anduril的發言人Shannon Prior表示,Luckey並不是說機器人應該被編程為自主殺人,而是他擔心「壞人使用壞AI」。

過去,矽谷一直傾向於謹慎。以Luckey的聯合創辦人Trae Stephens為例。他去年告訴Kara Swisher:「我認為我們正在建造的技術使人類能夠對這些事情做出正確的決定,這樣所有可能涉及致命性的決定都有一個負責、可問責的一方。」

Anduril的發言人否認Luckey和Stephens之間存在任何矛盾,並表示Stephens的意思並不是人類應該總是做出最終決定,而是應該有一個負責的人。

公平地說,美國政府本身的立場也是模糊的。美國軍方目前不購買完全自主的武器。儘管有人認為像地雷和導彈這樣的武器可以自主運作,但這與自動識別、獲取和攻擊目標的炮塔是質量上的不同。

美國並沒有禁止公司製造完全自主的致命武器,也沒有明確禁止它們向外國出售這些東西。去年,美國發布了更新的軍事AI安全指南,這些指南得到了許多美國盟友的認可,並要求高級軍事官員批准任何新的自主武器;然而,這些指南是自願的(Anduril表示它承諾遵守這些指南),而美國官員一直表示現在「不是考慮任何具有約束力的自主武器禁令的時候」。

上個月,Palantir的聯合創辦人和Anduril的投資者Joe Lonsdale也表現出對完全自主武器的考慮。在智庫哈德遜研究所舉辦的一次活動中,Lonsdale對這個問題被框定為一個簡單的「是或否」感到沮喪。他提出了一個假設:中國已經採用了AI武器,但美國每次發射都必須按下按鈕。他鼓勵政策制定者採取更靈活的方式來考慮武器中的AI程度。

「你很快就會意識到,如果我只是制定了一個愚蠢的自上而下的規則,那麼我的假設是錯誤的,因為我是個從未玩過這個遊戲的職員。」他說。「我可能會在戰鬥中毀了我們。」

當TechCrunch要求Lonsdale進一步評論時,他強調國防技術公司不應該是設定致命AI議程的人。「我所說的關鍵背景是,我們的公司不制定政策,也不想制定政策:這是民選官員的工作。」他說。「但他們確實需要了解細微差別才能做好工作。」

他還重申了考慮更多武器自主性的意願。「這不是你所暗示的二元論——‘完全自主或非自主’不是正確的政策問題。對於士兵應該做什麼和武器系統應該做什麼,有幾個不同維度的複雜調節。」他說。「在政策制定者制定這些規則並決定在哪種情況下應該設置調節之前,他們需要了解遊戲並了解壞人可能在做什麼,以及在美國人命懸於一線時,為了取勝需要做什麼。」

活動家和人權組織長期以來一直試圖並未能建立對自主致命武器的國際禁令——美國一直拒絕簽署這些禁令。但烏克蘭戰爭可能已經扭轉了局勢,為活動家提供了大量的戰鬥數據和防禦技術創辦人可以測試的戰場。目前,公司的武器系統中整合了AI,但仍然需要人類做出最終的殺人決定。

同時,烏克蘭官員一直在推動武器的更多自動化,希望這能讓他們在對抗俄羅斯時佔據優勢。烏克蘭數字轉型部長Mykhailo Fedorov在接受《紐約時報》採訪時說:「我們需要最大的自動化。這些技術對我們的勝利至關重要。」

對於矽谷和華盛頓特區的許多人來說,最大的擔憂是中國或俄羅斯首先推出完全自主的武器,迫使美國被動應對。在去年聯合國關於AI武器的辯論中,一位俄羅斯外交官表現得特別不透明。「我們理解對許多代表團來說,人類控制是優先事項。」他說。「對於俄羅斯聯邦,優先事項有些不同。」

在哈德遜研究所的活動中,Lonsdale表示,科技行業需要承擔起「教導海軍、教導國防部、教導國會」了解AI潛力的責任,以「希望讓我們超越中國」。

Lonsdale和Luckey所屬的公司正在努力讓國會聽取他們的意見。根據OpenSecrets的數據,Anduril和Palantir今年在遊說上共花費了超過400萬美元。

編者按:這篇報導已更新,包含更多描述自主武器的語言。

編輯評論:

這篇文章揭示了一個極具爭議性和道德挑戰的話題:AI在軍事武器中的應用。從文章中可以看出,各方對於是否應該讓AI決定人類生死存在極大分歧。這不僅涉及技術層面的可行性,更牽涉到倫理和國際法的挑戰。

首先,Brandon Tseng和Palmer Luckey的觀點反映了矽谷內部對這一問題的分裂。前者堅持人類應該保留最終決定權,而後者則對完全自主武器持開放態度,甚至質疑反對者的論點。這種分歧顯示出科技界內部對於AI武器的未來並未形成共識。

其次,美國政府的模糊立場和矛盾態度令人擔憂。儘管有指導方針,但這些都是自願性的,並未形成約束力。這種不明確性可能會導致政策的搖擺不定,甚至讓企業在技術和道德邊界上遊走。

最引人注目的是,烏克蘭戰爭似乎成為推動AI武器發展的催化劑。這再次強調了戰爭對技術進步的影響,但同時也讓人擔心這些技術可能會被濫用。烏克蘭官員的呼籲顯示出在戰爭中技術優勢的重要性,但這是否意味著我們應該放任AI武器的發展,這是一個需要深思的問題。

最終,這篇文章讓我們看到了一個複雜且多層次的問題,涉及技術、倫理、政策和國際關係。作為媒體和公眾,我們有責任深入理解這些問題,並促進更廣泛的討論和辯論,以確保技術的發展不會偏離人類的基本價值和道德準則。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *