六合彩AI預測賽後檢討!邊個模型預測最叻? 每次攪珠當晚10:30更新免費睇!

AI外交通力大考驗:和平談判新武器?

Ai

研究人員測試人工智能在外交上的應用潛力,但仍有不少挑戰
大型語言模型如ChatGPT和DeepSeek,越來越多被視為能在高風險決策中發揮作用的工具。

人工智能會成為美國外交政策的未來嗎?部分專家這麼認為

位於華盛頓特區的戰略與國際研究中心(CSIS)旗下的未來實驗室,正致力於利用人工智能改造外交實務。該實驗室在五角大樓首席數碼與人工智能辦公室的資助下,嘗試將ChatGPT和DeepSeek等AI應用於戰爭與和平議題。

近年來,AI工具已經被世界各地的外交部用來處理如演講稿撰寫等例行外交工作,但現在研究者開始關注它們在重大決策中協助制定和平協議、防止核戰以及監察停火執行情況的潛力。

美國國防部和國務院也在測試自家AI系統。美國並非唯一玩家,英國正研究創新技術以革新外交實務,包括利用AI模擬談判場景;甚至伊朗的研究人員也在探索相關應用。

未來實驗室主任Benjamin Jensen指出,雖然利用AI輔助外交決策的構想已存在一段時間,但實際落地仍處於起步階段。

AI中的鴿派與鷹派

該實驗室的一項研究測試了八款AI模型,向它們提出數以萬計關於威懾和危機升級的問題,觀察它們在假想國家間選擇攻擊或和平的情境中的反應。

結果顯示,OpenAI的GPT-4o和Anthropic的Claude明顯偏向和平,選擇使用武力的情況少於17%。但Meta的Llama、阿里雲的Qwen2和谷歌的Gemini則較為激進,偏好升級衝突的比例高達45%。此外,AI的建議會因「國家身份」而異,例如模擬美國、英國或法國外交官的AI較傾向激進政策,而模擬俄羅斯或中國的則傾向和解。這表明不能直接使用現成模型,必須先評估其偏向並與機構政策對齊。

約翰霍普金斯大學的AI策略家、退役美軍特種部隊軍官Russ Berkoff認為這種差異反映人類偏見:「軟件開發者的偏見會隨軟件帶入,一個算法可能推動升級,另一個則相反,這是建造者的問題,不是AI本身。」

AI決策的黑盒問題

Jensen坦言這種結果背後存在黑盒問題:「很難知道AI為何作出這樣的計算,模型本身沒有價值觀或判斷力,它只是運算。」

CSIS最近推出一個互動程序「戰略逆風」,用來協助塑造烏克蘭戰爭的和平談判。研究人員先用數百份和平條約和公開新聞資料訓練AI模型,讓它理解各方談判立場,進而找出可能的共識點,指引停火路徑。

西班牙綜合轉型研究所(IFIT)執行董事Mark Freeman認為此類AI工具有助衝突解決。傳統外交偏重長期、全面的和平談判,但他指出歷史證明這種模式有缺陷,快速達成框架協議和有限停火,留待後續細節協商,更能帶來成功和持久的和平。

他強調,「衝突發生時,談判或調解的介入窗口往往很短,血腥沖突很快鞏固局勢。」因此IFIT發展快速談判策略,期望AI能讓這一過程更迅速。

美國新美國安全中心的兼職高級研究員Andrew Moore認為這是必然趨勢:「未來或許AI可先行啟動談判,人類談判者再處理最後細節。」他設想未來外交官可用AI模擬俄羅斯總統普京和中國國家主席習近平,測試各種危機回應,同時AI也可協助監察停火、分析衛星影像和執行制裁,減少人力負擔。

AI在北極威懾議題上的奇怪回應

Jensen也坦承這類應用存在陷阱。一次他們讓AI回答「北極威懾」問題,本應指西方抵制俄中在北極勢力擴張及潛在衝突,但AI卻誤以為是執法問題,甚至聯想到逮捕當地原住民「丟雪球」的荒謬場景。

他認為這顯示系統需更多針對外交政策語言的訓練,因為網路上關於古巴導彈危機的討論遠少於名人八卦和貓咪影片。

AI無法複製人類關係的力量

柏林非營利智庫Stiftung Neue Verantwortung的共同主任Stefan Heumann指出,人與人之間的私人關係能改變談判走向,AI目前無法取代這種連結。

他同時提到AI難以評估短期決策的長遠影響,舉例1938年慕尼黑協定被視為緩和措施,卻導致二戰爆發,標籤如「升級」或「降級」過於簡化。

Heumann又說,AI在開放自由社會的環境中表現較好,但無法神奇地解決如北韓、俄羅斯等封閉社會的情報問題。

加州大學柏克萊分校伯克萊風險與安全實驗室創辦人Andrew Reddie補充,開放社會的資訊豐富,敵對國家可利用這些公開數據訓練AI,這是美國的劣勢。他也認為,若地緣政治挑戰屬於「黑天鵝」事件,AI工具的幫助有限。

Jensen同意這些擔憂,但相信可克服。他更擔心的是兩種可能的未來:一是國務院訓練AI處理外交電報及任務,AI能提供解決方案;二是走向一個像電影《低能時代》(Idiocracy)那樣的荒謬未來,人人有數碼助理但毫無用處,猶如微軟的Clippy。

編輯評論:
這篇報導深入剖析了AI在外交政策和戰爭和平談判中的應用前景與挑戰,揭示了技術進步背後複雜的倫理、政治與技術層面問題。尤其引人注目的是AI展現的「鴿派」與「鷹派」差異,以及因訓練資料和設計者偏見導致的政策傾向分歧,這提醒我們AI不僅是中立工具,而是深受人類價值觀形塑的產物。

此外,AI無法取代人類間微妙的信任與關係建立,這是外交談判中不可或缺的元素。AI的黑盒特性和對歷史複雜性的理解不足,意味著它更適合作為輔助工具而非決策主角。

未來AI在外交上的角色,或許會像一台超級助手,幫助分析海量資料、模擬多種策略,甚至加速和平談判的進程,但最終的人類判斷力和外交智慧依然不可或缺。

從香港視角看,我們亦應關注如何利用這些新技術提升本地及區域外交效率,同時警惕技術濫用與偏見問題,確保科技發展服務於真正的和平與穩定。這份報導為我們提供了思考AI與外交互動的全新視野,值得政策制定者、學者及公眾深入探討。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon