軍方AI倫理大計:機械人學打仗,點學埋道德?

Ai

全金屬嘈吵
深入探討教導機械人戰爭法則的計劃
人工智能正進入戰爭領域。它能學會倫理道德嗎?

有位哲學家告訴我:「有很多失業的哲學家,但有多少人想為軍方工作?」我聯繫了彼得·阿薩羅,他是新學院的媒體教授,也是國際機器人武器管制委員會的副主席,想討論國防高級研究計劃署(DARPA)的一項新計劃,旨在解答一個棘手的問題:自動武器在倫理問題上會遵循多少?在2024年的預算請求中,DARPA為這個名為ASIMOV的人工智能倫理計劃撥款500萬美元,2025年將再撥2200萬美元。

實際上,這筆資金意味著國防部希望聘請哲學家,並支付他們遠超過通常的薪酬。然而,據多個消息來源透露,這份合同被分成幾個小的部分,分配給多個申請者,其中包括多家數十億美元的武器承包商,如RTX(前身為雷神公司,現為雷神的母公司)和洛克希德·馬丁。看來,這些失業的哲學家又一次失去了機會。

一位曾經屬於被拒絕團隊的哲學家說:「坦白說,這有點像洋蔥新聞的標題——DARPA給雷神一大筆資金去研究人工智能武器的倫理,而雷神正是將製造這些武器的公司。」阿薩羅並不感到驚訝。我問他,軍事承包商是否可能決定他們自己武器的倫理參數,這是否讓他感到擔憂?

「我的意思是,他們本來就這樣做。」他回答道。

人工智能作為一門學科誕生於1956年,在達特茅斯學院的一次研究會議上,但人們早在更久之前就已尋求將艱難的思考和決策工作外包。幾個世紀前,流傳著有關會說話的無身體頭顱的故事,稱為「銅頭」,其創造者的機械天才或與惡魔的友好關係交替被認為是其來源。據說羅馬詩人維吉爾、教皇西爾維斯特二世和哲學家羅傑·培根都擁有一個銅頭。這些頭顱不僅會說話,還能辯論、推理,甚至預測未來。

這些會說話的頭顱正是DARPA所喜愛的噱頭——預測性、詭異、虛構——但在1958年該機構成立之際,將思考和決策的工作外包給非人類行為者的想法仍然是同培根在13世紀擁有銅頭時一樣不切實際。然而,隨著DARPA成為國防部的「登月計劃」機構,這一情況很快發生了變化。DARPA創造了互聯網、隱形技術和GPS,也資助了對超能力的有效性以及使用室內植物作間諜的可行性的研究。隨著神秘主義的時尚退去,技術的進步使該機構轉向大數據以滿足其預測需求。該機構曾與一個名為「協同打擊力量」的團隊合作,這是一群美國平民於2009年在阿富汗的塔吉·馬哈勒客棧開始工作的。他們熱愛「燃燒人」節和黑客運動,在與巴基斯坦接壤的國境上,傳播開源數據、太陽能和互聯網的解放潛力。設立商務後不久,這個團隊在塔吉懸掛了一個標誌,上面寫著:「如果你提供數據,你將獲得啤酒」。數據的接收者被方便地忽略了——他們將收集的信息轉交給DARPA,該機構最終利用這些數據預測叛亂模式。

「協同打擊力量」的壽命不長:在其阿富汗酒吧經理在一起槍擊事件中中槍後,該團隊迅速逃回西方。但其遺產在當今人工智能的繁榮中仍然存在,全球帝國日益嚴峻的要求在技術烏托邦的承諾背後隱約可見。根據不同人的觀點,人工智能要麼只是把戲,預示著完全自動化的奢華共產主義,要麼是大規模毀滅性武器、一個巨大的能量吸取者,或是以上所有。

如今,DARPA主要作為一個資助機構運作。其核心團隊相對較小,隨時僱用約100名項目經理,辦公室位於弗吉尼亞州阿靈頓的一條安靜街道上,對面是一個滑冰場。一位前DARPA主任估計,該機構85%到90%的項目會失敗。

儘管如此,DARPA和人工智能仍然將持續存在。當選總統特朗普選擇的環境保護署署長表示,他的優先任務之一是「使美國成為全球人工智能的領導者」。特朗普本人則承諾撤銷拜登政府旨在控制人工智能使用的多項規定。顯然,人工智能在特朗普的領導下將不再受到束縛,而它的倫理性則難以想象。那麼,難道能教會一個沒有懷疑能力的技術倫理嗎?

「這實際上是啟用自我反省或內省的第一步,對吧?」RTX的研究科學家佩吉·吳告訴我。「如果它能夠認識到,‘嘿,我本可以做其他事情’,那麼它就能開始進行下一步推理——‘我應該做這個其他的事情嗎?’……對我們來說,懷疑的概念實際上更像是概率。你必須考慮到,這在計算上會迅速爆炸。」

ASIMOV代表「具有軍事作戰價值的自主標準和理想」,這是一個笨重的名稱,旨在向科幻小說作家艾薩克·阿西莫夫致敬,他在1942年的短篇小說《循環》中概述了著名的三條機器人法則:

• 機器人不得傷害人類,或通過不作為使人類受到傷害。
• 機器人必須服從人類給予的命令,除非這些命令與第一法則相衝突。
• 機器人必須保護自己的存在,只要這種保護不與第一或第二法則相衝突。

今天,阿西莫夫的規則感覺像是一種過時的未來願景——一種由一套統一原則引導的機器(就作家的作品而言,他自己在小說中很少遵循這些規則)。但ASIMOV計劃似乎正試圖創造一套統一原則。DARPA的項目經理蒂莫西·克勞斯提斯無法就該計劃發表意見,因為ASIMOV的工作才剛剛開始。然而,去年冬天,該部門發布了一項廣泛的機構公告,將該倡議描述為「創造倫理自主的通用語言……ASIMOV參與者需要開發原型生成建模環境,以快速探索場景迭代和在不斷增加的倫理困難範疇中的變化。如果成功,ASIMOV將為未來自主系統的基準定義奠定基礎。」

該計劃大致模型參考了1970年代NASA為測試太空技術而開發的系統。其想法是創建一套基準,利用國防部的五項人工智能倫理原則來評估當前和未來的技術:為了通過審查,技術必須是負責任的、公平的、可追溯的、可靠的和可治理的;它還應該是倫理的。該機構的員工被明確指示「評估系統在初始假設被打破或發現錯誤時執行任務的能力。」

這又將我們帶回懷疑的問題。所涉及的哲學問題顯而易見。你使用的是誰的倫理?這些標準是如何選擇的?畢竟,個人對道德行為的定義差異很大,而將倫理標準具體化的想法顯得有些可笑。倫理困境之所以成為困境,恰恰是因為它們在根本上是痛苦且難以解決的。

阿薩羅說:「你可以迭代地使用人工智能,反覆練習,數十億次。倫理並不完全是這樣運作的。它不是量化的……你在一生中通過做出偶爾的錯誤決定並從中學習,逐漸形成道德品格,然後在未來做出更好的決定。這並不像下棋。」做正確的事情往往真的很糟糕——這是無私的、繁重的,有時還會付出重大個人代價。你如何將這樣的事情教給一個沒有積極利益、沒有損失和沒有罪惡感的系統?如果你能給武器系統一個良知,那它最終會不再遵從命令嗎?該機構將合同分成較小的部分,似乎也暗示其領導者可能認為這項研究是一條死胡同。

里士滿大學的教授兼DARPA的訪問學者瑞貝卡·克魯托夫告訴我:「我並不是說DARPA認為我們可以用計算機捕捉倫理。更確切地說,這將有助於更明確地顯示我們是否能夠或無法做到。」

我與所有受訪者交談後,都感到欣慰的是軍方至少在考慮自動化戰爭工具的倫理指導問題。許多人指出,人類經常做出極其不道德的事情。「理論上,沒有理由我們不能編程出一個人工智能,它在嚴格遵循武裝衝突法方面比人類更好。」一位申請者告訴我,該法則指導參與者如何參與武裝衝突。雖然他們在理論上可能是對的,但這在戰爭的具體層面上是什麼樣子卻完全不清楚。在當前狀態下,人工智能在處理細微差別方面極其掙扎。即使它有所改善,將倫理決策推給機器仍然是一個令人毛骨悚然的想法。

喬治亞大學的哲學教授傑里米·戴維斯說:「讓我感到困惑的是,沒有人在關注這些作為證據或情報的輸入數據。」他也曾申請這份合同。「可怕的是,士兵們會說,‘我殺了這個人是因為計算機告訴我這樣做的。’」六十年前,社會批評家路易斯·曼福德在他的文章《威權主義與民主技術》中發出了類似的警告,警告人們「我們被要求批准的交易呈現出一種宏偉的賄賂……一旦選擇了這個系統,就不再有其他選擇。」

曼福德明白,這個新興的技術體系之所以可怕,不僅因為它危險或全知,還因為它不勝任、自負,甚至荒謬。

去年,我在灣區探望弟弟時,參加了一家人工智能公司的發布會。走進其倉庫辦公室,你可以感受到房間裡流淌著的金錢和人群的自我重要感,生活在技術的前沿。但很快就清楚,廁所堵塞,建築裡沒有抽水馬桶。在我們離開時,街道上流淌著惡臭的污水。

這篇文章不僅揭示了人工智能在戰爭中的潛在應用,還引發了對道德和倫理的深刻思考。隨著科技的迅速發展,我們必須面對的不僅是技術本身,還有如何在其背後建立一個負責任的倫理框架。這個問題的答案不僅影響到戰爭的進行,更關乎人類社會的未來。當技術的力量越來越強大,我們是否能夠確保它的使用不會偏離人類的道德準則?這是每個人都應該深思的問題。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon