
軍事人工智能的第二階段已經到來
最近,我與兩位美國海軍陸戰隊員進行了交談,他們在太平洋部署了大部分時間,從韓國到菲律賓進行訓練演習。他們負責分析監視數據,以警告上級部隊可能出現的威脅。然而,這次部署是獨特的:他們首次使用生成式人工智能,通過類似ChatGPT的聊天機器人界面來篩查情報。
正如我在新報導中所寫,這個實驗是五角大廈推動使用生成式人工智能的最新證據,這些工具能進行類似人類的對話,並用於包括監視在內的多項任務。可以將這視為美國軍方人工智能推進的第二階段,第一階段始於2017年,當時主要使用舊型人工智能技術,如計算機視覺來分析無人機影像。雖然這一最新階段是在拜登政府下啟動,但隨著埃隆·馬斯克的DOGE和國防部長皮特·赫格斯特的強烈推動,這一進程變得更加迫切。
這一推動也引發了一些人工智能安全專家的警覺,他們質疑大型語言模型是否適合在高地緣政治風險的情況下分析微妙的情報。這同時也加速了美國朝向一個人工智能不僅僅是分析軍事數據,還能建議行動的世界——例如,生成目標名單。支持者認為這將帶來更高的準確性和更少的平民傷亡,但許多人權團體卻持相反意見。
有鑑於此,以下是三個值得關注的問題,隨著美國軍方及全球其他國家將生成式人工智能引入所謂的“殺戮鏈”更多部分。
“人類在循環中的”限制是什麼?
與許多國防科技公司交談後,你會經常聽到一個詞:“人類在循環中”。這意味著人工智能負責執行特定任務,而人類則負責檢查其工作。這被視為防範最糟糕情況的保障——例如人工智能錯誤下令致命打擊——但也針對一些較小的失誤。這一概念隱含著一種承認,即人工智能將會出錯,並承諾人類將能夠發現這些錯誤。
然而,人工智能系統的複雜性使得人類要檢查這些數據變得極其艱難。AI Now Institute的首席人工智能科學家海迪·克拉夫表示:“‘人類在循環中’不一定是一種有效的減輕措施。”當人工智能模型依賴成千上萬的數據點來得出結論時,“人類很難篩選這些信息來判斷人工智能的輸出是否錯誤。”隨著人工智能系統愈來愈依賴大量數據,這個問題也在不斷擴大。
人工智能是否使我們更容易或更難判斷什麼應該被分類?
在冷戰時期的美國軍事情報中,信息是通過秘密手段捕獲的,然後由華盛頓的專家撰寫報告,最後加蓋“最高機密”印章,僅限於具備適當許可的人士訪問。大數據的時代,以及現在生成式人工智能分析數據的出現,正在以多種方式顛覆這一舊有範式。
一個具體的問題被稱為“分類合併”。想象一下,數百份未分類的文件都包含有關某軍事系統的不同細節。能夠將這些信息拼湊在一起的人,可能會揭示出一些獨立來看會被分類的重要信息。多年前,人們可以合理地假設沒有任何人能將這些線索串聯起來,但這正是大型語言模型所擅長的。
隨著數據量每天都在增長,並且人工智能不斷創造新的分析,RAND的高級工程師克里斯·穆頓表示:“我認為沒有人能提出一個良好的答案,來判斷這些產品的適當分類應該是什麼。”美國的安全問題在於分類不足,但立法者也批評五角大廈過度分類信息。
人工智能應該上升到決策鏈的多高?
從更廣泛的角度來看,美國軍方對人工智能的採用在許多方面跟隨了消費者的模式。早在2017年,當手機上的應用程序越來越擅長識別我們照片中的朋友時,五角大廈啟動了自己的計算機視覺計劃,稱為“梅維計劃”,旨在分析無人機影像並識別目標。
那麼,接下來會是什麼?對於消費者來說,這是代理人工智能,或能夠不僅與你對話和分析信息,還能上網執行任務的模型。這也是個性化人工智能,或能從你的私人數據中學習以提供更好的幫助的模型。
所有跡象都表明,軍事人工智能模型也將沿著這一軌跡發展。喬治城安全與新興技術中心在三月份發表的一份報告顯示,軍方對人工智能的採用正在增加,以協助決策。報告作者寫道:“軍事指揮官對人工智能改善決策的潛力特別感興趣,尤其是在戰爭的運作層面。”
去年十月,拜登政府發布了其國家安全備忘錄,為這些情況提供了一些保障。這份備忘錄尚未被特朗普政府正式廢除,但特朗普總統已表示,美國在競爭性人工智能方面需要更多創新而不是更多監管。無論如何,顯然人工智能正在迅速向上攀升,不僅是為了處理行政瑣事,而是為了協助最具風險和時間緊迫的決策。
我將密切關注這三個問題。如果你對五角大廈如何處理這些問題有任何信息,請通過Signal聯繫我,賬號是jamesodonnell.22。
這篇報導最初出現在《算法》中,我們的每週人工智能新聞稿。如果你想第一時間收到這些故事,請在這裡訂閱。
—
評論:
這篇文章探討了美國軍方在生成式人工智能領域的進展,並提出了一些重要的問題,值得深入思考。首先,“人類在循環中”的概念雖然聽起來令人安心,但隨著數據量的增加和人工智能的複雜性,這一概念是否真的能有效保護我們免受錯誤決策的影響?這提示我們在軍事決策中,依賴技術的同時必須保持一定的人類監控,然而人類的干預是否能及時捕捉到所有錯誤,則是一大挑戰。
其次,關於分類的問題,顯示出在信息爆炸的時代,如何有效管理和分類信息的困難。這不僅影響軍事安全,也可能對國家安全政策造成深遠影響。隨著人工智能的進一步發展,如何平衡信息的可獲取性和安全性將成為一個棘手的問題。
最後,人工智能在軍事決策鏈中的角色上升,讓我們不禁思考:未來的戰爭將由人類還是機器主導?這不僅是技術的挑戰,更是道德和倫理的考量。軍方在推動人工智能進步的同時,必須謹慎考量其帶來的風險和後果,這才是未來軍事行動中不可或缺的部分。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。