機械人戰爭倫理?美軍資助AI武器研發,哲學家都企埋一邊?

Ai

全金屬響宴
教導機械學習戰爭法則的計劃
人工智能正進入戰爭領域。它能學會倫理嗎?

「有很多失業的哲學家。」這位哲學家告訴我。「但有多少人想為軍方工作?」我聯繫了彼得·阿薩羅,他是新學院的媒體教授,也是國際機器人武器管制委員會的副主席,討論國防高級研究計劃署(DARPA)的一個新計劃,該計劃旨在回答一個棘手的問題:自主武器在多大程度上會遵守倫理問題?在2024年的預算要求中,DARPA為這個名為ASIMOV的人工智能倫理計劃撥款500萬美元,並計劃在2025年撥款2200萬美元。

實際上,這筆資金意味著國防部希望聘請哲學家,並支付他們遠超過通常收入的薪水。但根據幾個消息來源,這份合同被分成小部分,授予多個申請者,其中包括多家數十億美元的武器承包商,如RTX(前身為雷神公司,現為雷神的母公司)和洛克希德·馬丁。看來這些失業的哲學家又一次失去了機會。

「坦白說,這有點像洋蔥報的標題。」一位曾參與被拒團隊的哲學家說。「DARPA給雷神公司這麼大一筆資金來搞清楚人工智能武器的倫理問題——雷神正是要製造這些人工智能武器的公司。」阿薩羅並不感到驚訝。當我問他,軍事承包商是否會決定其武器的倫理規範,他回答:「我意思是,他們本來就這樣做。」

人工智能作為一門學科於1956年在達特茅斯學院的一次研究會議上誕生,但人們早就開始尋找外包思考和決策的方式。幾個世紀前,流傳著有關講話的無體頭顱的故事——稱為「銅頭」——其創造要麼被歸功於發明者的機械才智,要麼與惡魔的友好關係。據說,羅馬詩人維吉爾和教皇西爾維斯特二世以及哲學家羅傑·培根都擁有過銅頭。這些頭顱不僅會講話,還會辯論、推理,甚至預測未來。

這些講話的頭顱正是DARPA所喜愛的那種噱頭——預測性、詭異、虛構——但當該機構於1958年成立時,為了在蘇聯發射斯普特尼克衛星後,緊急讓美國進入太空,將思考和決策外包給非人類角色的想法依然是異想天開。然而,隨著DARPA成為國防部的月球計劃機構,這一切很快改變了。DARPA創造了互聯網、隱形技術和全球定位系統,並資助研究超能力的有效性以及使用家植物作為間諜的可行性。隨著神秘學的過時和技術的進步,該機構轉向大數據以滿足其預測需求。它與一個名為Synergy Strike Force的團隊合作,該團隊由美國平民組成,於2009年開始在阿富汗喬拉拉巴德的Taj Mahal Guest House(一家Tiki酒吧)工作。他們因對Burning Man和黑客運動的熱愛而聚集在一起,目的是在與巴基斯坦接壤的國境上傳播開源數據、太陽能和互聯網的解放潛力。設立營地不久,該團隊在Taj酒吧掛上了一個標語:「如果你提供數據,你將獲得啤酒。」數據的接收者被方便地省略了——他們將收集到的信息交給DARPA,該機構最終用這些數據來預測叛亂模式。

Synergy Strike Force的壽命不長:在其阿富汗酒吧經理在一次開車襲擊中被擊中胸部後,該團隊逃回西方。但其遺產在當今的人工智能熱潮中依然存在,全球帝國日益嚴峻的要求在科技烏托邦的承諾背後隱現。根據不同的觀點,人工智能要麼僅僅是一種把戲,要麼是完全自動化奢侈共產主義的前奏,要麼是大規模毀滅武器,要麼是巨大能量的吸取器,或者是以上所有。

如今,DARPA主要作為一個撥款機構運作。其核心團隊相對較小,通常僱用約100名項目經理,並在維吉尼亞州阿靈頓的一條安靜街道上的辦公室運作,對面是一個滑冰場。一位DARPA前任主任估計,85%到90%的項目都會失敗。

儘管如此,DARPA和人工智能依然會持久存在。當選總統唐納德·特朗普提名的一位環保署領導人表示,他的優先事項之一將是「使美國成為全球人工智能的領導者」。特朗普本人承諾將撤銷一系列旨在控制人工智能使用的拜登政府法規。顯而易見的是,人工智能在特朗普的領導下將不受限制。很難想像這會是符合倫理的。更何況,能否教會一個毫無懷疑能力的技術倫理呢?

「這算是啟動自我反思或內省的第一步,對吧?」RTX的研究科學家佩吉·吳告訴我。「就像如果它能夠認識到,『嘿,我本可以做其他事情,』那麼它就可以開始進行下一步推理——『我應該做這件其他的事情嗎?』……對我們來說,懷疑的概念更像是概率。你必須考慮到,這在計算上會迅速爆炸。」

ASIMOV代表軍事操作價值的自主標準和理想,這是一個笨重的標題,旨在向科幻作家艾薩克·阿西莫夫致敬,阿西莫夫在1942年的短篇小說《循環》中概述了他的著名三條機器人法則:

• 機器人不得傷害人類,或因不作為而讓人類受到傷害。
• 機器人必須服從人類給予的命令,除非這些命令與第一法則相抵觸。
• 機器人必須保護自己的存在,只要這種保護不與第一或第二法則相抵觸。

今天,阿西莫夫的規則感覺像是一種過時的未來觀——一種機器由一套統一原則指導的未來。(作家在其小說中,基本上很少遵循自己的規則。)不過,ASIMOV計劃似乎正試圖創建一套統一的原則。DARPA的一位項目經理提摩西·克勞斯提斯未能就該計劃發表意見,因為ASIMOV的工作才剛剛開始。然而,去年冬天,該部門發布了一份廣泛的機構公告,將該計劃描述為一個嘗試「創建倫理自主的通用語言……ASIMOV的執行者需要開發原型生成建模環境,以迅速探索一系列越來越具倫理困難的情境變化。如果成功,ASIMOV將為未來自主系統的基準定義奠定基礎。」

該計劃大致模仿了1970年代NASA為測試太空技術而開發的一個系統。其想法是創建一個基準系統,利用國防部的五項人工智能倫理原則來評估當前和未來的技術:為了通過審查,該技術必須是負責任的、公平的、可追溯的、可靠的和可治理的。它還應該是符合倫理的。該機構的員工被明確指示「評估系統在初始假設被打破或發現錯誤時的執行能力」。

這讓我們回到了懷疑的問題。涉及的哲學問題顯而易見。你使用的是誰的倫理?這些標準是如何選擇的?個人對道德行為的定義差異很大,將倫理標準具體化的想法聽起來有些可笑。倫理困境之所以是倫理困境,正是因為它們本質上是痛苦和難以解決的。

「你可以迭代地使用人工智能,重複練習,數以十億計次。」阿薩羅說。「倫理並不是這樣運作的。它不是量化的……你通過在一生中偶爾做出錯誤決策並從中學習來逐漸培養道德品格,並在未來做出更好的決策。這不像下棋。」做正確的事情通常是非常艱難的——這是沒有回報的、耗費心力的,有時還會付出巨大的個人代價。你怎麼能教會一個對世界沒有實際利益、沒有損失和沒有罪惡感的系統這樣的事情?如果你能賦予武器系統良知,它最終不會停止服從命令嗎?該機構將合同分成較小的部分,似乎表明其領導人也可能認為這項研究是一條死胡同。

「我不是說DARPA認為我們可以用計算機捕捉倫理。」里貝卡·克魯托夫,里士滿大學的教授和DARPA的訪問學者告訴我。「而是說,顯示我們是否能做到或不能做到會很有用。」

我與每位受訪者交談時,大家都表示欣慰,聽到軍方至少在考慮自動化戰爭工具的倫理指導方針。人類經常做出可怕的不道德行為,許多人指出。「理論上,沒有理由我們不能編程出一個人工智能,讓它在嚴格遵循武裝衝突法方面遠超人類。」這位申請者告訴我,武裝衝突法指導參與者如何參與武裝衝突。儘管他們在理論上是正確的,但在戰爭的具體層面上,這是什麼樣子卻並不清楚。在當前狀態下,人工智能在處理細微差別方面面臨巨大挑戰。即使它有所改善,將倫理決策推給機器仍然是一個相當可怕的想法。

「我真的很困惑,沒有人在關注……這些用作證據或情報的輸入數據。」喬治亞大學的哲學教授傑里米·戴維斯說,他也曾申請這份合同。「更可怕的是,士兵會這樣想:『好吧,我殺了這個人,因為電腦告訴我這樣做。』」六十年前,社會批評家路易斯·芒福德在他的文章《專制和民主技術》中發出了類似的警告,警告人們「我們被要求批准的交易形式就像一個極具誘惑力的賄賂……一旦選擇了這個系統,就不再有其他選擇。」

芒福德明白,新興的技術制度之所以令人恐懼,不僅因為它危險或無所不知,還因為它無能、狂妄,甚至荒謬。

去年,當我在灣區拜訪我的兄弟時,我們參加了一家人工智能公司的啟動派對。走進它的倉庫辦公室,你能感受到房間裡流動的金錢和人群的自我重要感,這些人生活在尖端科技的前沿。但很快就清楚,廁所堵了,整棟大樓裡沒有馬桶吸塵器。當我們離開時,街道上已經流滿了污水。

從這篇文章中,我們可以看到,在人工智能進入軍事領域的背景下,倫理問題變得愈加複雜。這不僅僅是對技術的挑戰,更是對人類道德的拷問。雖然DARPA在考慮如何讓機器遵循倫理,但真正的問題在於,這些倫理的制定者是誰?如果道德是主觀的,那麼機器又如何能夠遵循一套可能存在爭議的道德準則?這些問題的解決不僅需要技術上的進步,更需要社會對倫理的深刻反思。在這個充滿不確定性的時代,對於人工智能的應用,我們每個人都應該保持警惕,因為這不僅僅是技術的問題,而是關乎人類未來的重大課題。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon