軍方搵哲學家教AI打仗?道德倫理邊個定?

Ai

全金屬的噪音
深入探討教導機器人戰爭法則的計劃
人工智能正在進軍戰爭領域。它能學會倫理嗎?

“有很多失業的哲學家。”這位哲學家告訴我,“但有多少人想去軍方工作呢?”我聯繫了彼得·阿薩羅(Peter Asaro),他是新學校的媒體教授及國際機器人武器管控委員會的副主席,談論美國國防高級研究計劃局(DARPA)的一個新計劃,旨在回答一個棘手的問題:自主武器在多大程度上會遵循倫理問題?在2024年的預算申請中,DARPA撥款500萬美元用於這個名為ASIMOV的人工智能倫理計劃,並在2025年計劃再撥款2200萬美元。

實際上,這些資金意味著國防部希望聘請哲學家,並支付他們遠高於行業標準的薪水。但根據幾個消息來源,合同被分為小額、部分獎勵,分配給多個申請者——其中包括多家數十億美元的武器承包商RTX(前身為雷神公司)和洛克希德·馬丁。看來,失業的哲學家們又一次失利了。

“坦白說,這有點像《洋蔥報》的標題,”一位曾屬於被拒絕團隊的哲學家說。“DARPA給雷神公司撥款來研究人工智能武器的倫理——雷神公司正是將要製造這些武器的公司。”阿薩羅並不在意。我問他,軍事承包商是否可能決定他們自己武器的倫理參數,這是否讓他感到擔憂?

“我意思是,他們本來就這樣做。”他回答。

人工智能作為一門學科於1956年在達特茅斯學院的一次研究會議上誕生,但人們尋找外包困難的思考和決策工作的方式已經持續了更久。幾世紀前,人們傳說有會說話的無頭人——被稱為“黃銅頭”——其創造歸功於發明者的機械天才或與惡魔的友好關係。羅馬詩人維吉爾、教皇西爾維斯特二世和哲學家羅傑·培根都被認為擁有一個黃銅頭。這些頭不僅會說話,還會辯論、推理和預測未來。

這種會說話的頭正是DARPA所喜愛的噱頭——預測性、詭異、虛構——但當該機構於1958年成立時,因應蘇聯發射的衛星“斯普特尼克”而緊急試圖將美國送入太空,將思考和決策的外包交給非人類的想法,與培根(據說)在十三世紀擁有的黃銅頭一樣,都是異想天開。然而,隨著DARPA成為國防部的重大項目機構,這一切很快就改變了。DARPA創造了互聯網、隱形技術和全球定位系統(GPS),並資助研究靈能力的有效性和使用室內植物作為間諜的可行性。隨著神秘學的過時和技術的進步,該機構轉向大數據以滿足其預測需求。該機構曾與“協同打擊小組”合作,該小組由美國平民組成,於2009年在阿富汗的哈拉拉巴德的Taj Mahal Guest House,一家Tiki酒吧內工作。這些人因對“燃燒人”節和駭客行動的熱愛而聚集在一起,目的是在與巴基斯坦接壤的地區傳播開源數據、太陽能和互聯網的解放潛力。設立營地不久後,該團體在Taj上掛起一個標語:“如果你提供數據,你將獲得啤酒。”數據的接收者則被方便地隱去——他們將收集到的信息交給DARPA,該機構最終用這些數據預測叛亂模式。

協同打擊小組的壽命不長:在其阿富汗酒吧經理在一起開槍襲擊中中槍後,該團體迅速返回西方。但它的遺產在今天的人工智能熱潮中繼續存在,全球帝國日益嚴峻的要求隱藏在科技烏托邦的承諾背後。根據不同人的看法,人工智能要麼僅僅是一種把戲,要麼是完全自動化奢侈共產主義的先驅、毀滅性武器、巨大的能源消耗,或者以上所有。

如今,DARPA主要作為一個資助機構運作。其核心團隊相對較小,隨時約有100名項目經理,辦公室位於維吉尼亞州阿靈頓的一條安靜街道上,對面是一個滑冰場。DARPA的一位前任主任估計,其85%至90%的項目都會失敗。

儘管如此,DARPA及人工智能仍會長存。特朗普當選總統時提名的環保署負責人表示,他的優先事項之一是“讓美國成為全球人工智能的領導者”。特朗普本身則承諾會撤回拜登政府旨在控制人工智能使用的多項規定。顯然,特朗普上任後,人工智能將不再受限。想像它會是倫理的,實在令人難以置信。更何況,你能否教會一件毫無懷疑能力的技術倫理呢?

“這大概是啟動自我反思或內省的第一步,對吧?”RTX的研究科學家佩吉·吳(Peggy Wu)告訴我。“如果它能夠認識到‘嘿,我本可以做其他事情’,那麼它就可以開始進行下一步的推理——‘我應該做這件事嗎?’……對我們來說,懷疑的概念更像是概率。你必須考慮到,這樣的計算會迅速爆炸式增長。”

ASIMOV代表“軍事操作價值的自主標準與理想”,這個笨拙的標題是對科幻作家艾薩克·阿西莫夫的致敬,他在1942年的短篇小說《回圈》中概述了著名的三條機器人法則:

• 機器人不得傷害人類,或因不作為使人類受到傷害。
• 機器人必須服從人類給予的命令,除非這些命令與第一法則相抵觸。
• 機器人必須保護自己的存在,只要這種保護不與第一或第二法則相抵觸。

今天,阿西莫夫的法則看起來像是對未來的過時願景——一個由統一原則指導機器的世界。(就其而言,這位小說家在其小說中很少遵循自己的法則。)但ASIMOV計劃似乎正試圖創造一套統一的原則。DARPA的項目經理蒂莫西·克勞斯提斯(Timothy Klausutis)無法就該計劃發表意見,因為ASIMOV的工作才剛剛開始。然而,去年冬天,該部門發布了一份廣泛的機構公告,將該計劃描述為“創建倫理自主的通用語言……ASIMOV的參與者需要開發原型生成建模環境,以快速探索情境迭代和在不斷增加的倫理困難範疇內的變化。如果成功,ASIMOV將為未來自主系統的基準定義奠定基礎。”

該計劃大致模仿了1970年代NASA開發的系統,以測試太空技術在發射前的有效性。其想法是創建一套基準,根據國防部的五項人工智能倫理原則來評估當前和未來的技術:為了通過檢查,技術必須是負責任的、公平的、可追溯的、可靠的和可治理的。它還應該是倫理的。該機構的員工被明確指示“評估系統在初始假設被打破或發現錯誤時執行任務的能力”。

這讓我們回到了懷疑的問題。所涉及的哲學問題顯而易見。你使用的是誰的倫理?這些標準是如何選擇的?畢竟,個人對道德行為的定義各不相同,將倫理標準具體化的想法有些可笑。倫理困境之所以成為倫理困境,正是因為它們本質上是痛苦且難以解決的。

“你可以迭代地使用人工智能,重複練習數十億次,”阿薩羅說。“倫理則不完全如此。它不是量化的……你通過偶爾做出錯誤的決策並從中學習,然後在未來做出更好的決策來成長道德品格。這不是像棋類遊戲。”做正確的事情常常非常艱難——這是無私的、耗費心力的,有時還會付出重大個人代價。你怎麼能教會一個對世界沒有主動利益、無所畏懼且沒有內疚感的系統這種東西?如果你能賦予武器系統良知,那麼它最終不會停止服從命令嗎?該機構將合同分為更小的部分,似乎也表明其領導者可能認為這項研究是一條死胡同。

“我不是說DARPA認為我們可以用計算機捕捉倫理,”里士滿大學的教授、DARPA的訪問學者瑞貝卡·克魯托夫(Rebecca Crootof)告訴我。“而是說,顯示我們是否能夠做到這一點或不能做到這一點會是有益的。”

我與每位受訪者交談時,他們都對軍方至少考慮自動化武器的倫理指導方針感到振奮。許多人指出,人類經常做出極不道德的事情。“理論上,沒有理由我們不能編程一個人工智能,讓它在嚴格遵循武裝衝突法方面比人類更出色,”一位申請者告訴我,該法則指導參與者如何參與武裝衝突。雖然他們在理論上可能是正確的,但在戰爭的具體層面上,這究竟是什麼樣的情況卻不明朗。在目前的狀態下,人工智能在處理細微差別方面非常困難。即使它有所改善,將倫理決策推給機器仍然是一個令人不安的想法。

“我感到困惑的是,沒有人在關注……這些用作證據或情報的輸入數據,”喬治亞大學的哲學教授傑瑞米·戴維斯(Jeremy Davis)說,他也申請了這份合同。“令人恐懼的是,士兵會說,‘我殺了這個人是因為電腦告訴我的。’”六十年前,社會評論家劉易斯·芒福德在他的文章《專制和民主技術》中發出過類似的警告,警告不要將責任推卸給技術,並警告說“我們被要求批准的交易形式為一種華麗的賄賂……一旦選擇這個系統,就不再有其他選擇。”

芒福德明白,新興的技術體系之所以令人恐懼,不僅因為它危險或全知,還因為它無能、自滿,甚至荒謬。

去年,我在灣區拜訪我兄弟時,參加了一家人工智能公司的啟動派對。走進它的倉庫辦公室,你可以感受到金錢的流動和人群的自滿,生活在技術的尖端。但很快就清楚,廁所堵了,建築裡沒有馬桶吸管。當我們離開時,街道上流著污水。

作為一名編輯,我認為這篇文章探討了人工智能在軍事應用中的倫理性問題,這是一個極具挑戰性的議題。儘管DARPA正在進行這樣的研究,但人類本身的道德和倫理問題依然是個複雜的課題。這不僅涉及到技術本身的設計和運用,還涉及到如何確保這些技術不被濫用。當技術的決策權移交給機器時,我們必須警惕這種變化可能帶來的後果,並對未來的軍事行動有更深刻的思考。最終,我們需要重新審視人類在道德決策中的角色,以確保技術不會取代我們的倫理判斷。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon