五角大樓計劃利用機器學習推動海外宣傳,壓制異見聲音
根據《The Intercept》獲得的一份美國特種作戰司令部(SOCOM)文件,美國正計劃利用機器學習技術來製作及散播宣傳,以「影響外國目標群體」及「壓制異議言論」。這份文件彷彿是一份軍方未來五至七年內期望購買的高端軍事科技清單,涵蓋先進攝影機、感應器、定向能武器等裝備,協助特種部隊追蹤及消滅目標。當中亦包括用於資訊戰的機器學習軟件。
SOCOM希望能找到承包商,提供「利用具代理性(agentic)的人工智能或多大型語言模型(multi-LLM)代理系統,專注不同角色,以擴大影響行動規模」的能力。所謂「具代理性」系統指的是那些能在極少人為指令或監控下,自主運作的機器學習模型。這類系統可配合大型語言模型(如ChatGPT)使用,後者根據用戶提示生成文字。雖然目前市場多以它們執行日常任務(如網上購物、訂票)作宣傳,但SOCOM認為此技術非常適合運營自主宣傳機構。
文件指出:「資訊環境變化迅速,軍方人員難以即時在網絡上與目標群體互動及影響他們。擁有一個能支持我方目標的程式,可以實時控制敘事,影響受眾。」雖然法律和五角大樓政策通常禁止向美國國內民眾推行軍事宣傳,但網絡的開放性使得監控變得困難。
SOCOM發言人Dan Lessard回應時表示,SOCOM確實在追求「最先進的AI能力」,並強調所有AI應用均遵守國防部「責任AI框架」,確保有人工監督與決策。他稱SOCOM的網絡資訊支援行動符合美國法律政策,目標並非針對美國公眾,而是為應對全球複雜挑戰服務。
像OpenAI的ChatGPT或Google的Gemini等大型語言模型,雖然經常出現錯誤和不穩定輸出,但其能迅速針對任何話題、以各種語氣(從輕鬆嘲諷到學術風格)產生文字的能力,對網絡宣傳者來說是一大躍進。這些工具可讓用戶無需大量人工投入,即可精準調整訊息,針對不同群體。
AI生成的宣傳是否有效仍存疑問,但相關行動已屢見不鮮。2024年5月,OpenAI報告指出伊朗、中國、俄羅斯等國利用其工具進行秘密影響行動,但成效有限。布魯金斯學會的Jessica Brandt在2023年參議院AI論壇警告,大型語言模型可能提高資訊戰的個人化程度,令宣傳更具說服力。她警告,在充斥AI資訊戰的網絡生態中,公眾對客觀真相的懷疑會加劇。2024年發表在PNAS Nexus期刊的研究亦發現,語言模型生成的文本對美國受眾的說服力幾乎可媲美真實的外國秘密宣傳內容。
應對中國AI宣傳威脅,美國呼籲多方協調防禦
國安界普遍認為,中國和俄羅斯掌握的AI資訊戰能力威脅最大。一篇紐約時報評論文章指出,中國北京思考者公司開發的GoLaxy軟件,最初用於圍棋遊戲,但已成為國家支持的影響行動領頭羊。GoLaxy能掃描公開社交媒體內容,製作定制化宣傳,甚至私下聲稱能用新技術改變及影響公眾輿論,代表中國政府立場。據報該軟件已在香港、台灣開展影響行動,並收集美國國會議員及其他重要人物資料。
評論者呼籲政府、學術界及私營部門須協調合作,建立防禦機制,繪製並反制外國AI宣傳。
然而,五角大樓的文件顯示,SOCOM不但想要類似中國的技術,還計劃用自動化系統抓取網絡信息,分析情勢,並依照軍事資訊支援行動(MISO)目標,回應貼文、壓制異議,甚至生成可引用的支持材料。文件中特別提到,該系統應能「獲取試圖反駁或抹黑我方訊息的個人或組織的資料、社交網絡及系統」,並利用這些資訊製作更精準的訊息,影響特定目標。
SOCOM計劃利用生成式系統,不僅創作宣傳訊息,還模擬宣傳發出後的反應,進行「個人及群體代理模型」的演練,甚至模擬整個社會的複雜模型,幫助MISO策劃者測試多種情境。
該清單還包括攻擊性深偽技術(deepfake),早於2023年已被《The Intercept》揭露。
AI宣傳的風險與局限性
儘管AI有無限生產精緻宣傳的潛力,國內外專家對其成效持懷疑態度。自由之家2023年報告警告AI輔助的虛假資訊活動將激增,惡意勢力會利用開源模型繞過安全措施。該報告提及中國和俄羅斯的使用情況,並簡略提到美國國內政治運動中的AI運用。
國安委員會前新興科技主管Andrew Lohn指出,若AI宣傳只是誤導外國軍人相信錯誤的軍事行動時間地點,影響有限,無需過度恐慌。相反,RAND行為科學家William Marcellino認為,面對中國和俄羅斯大規模AI輿論戰,反制行動也必須依靠AI技術。
然而,AI生成的宣傳存在嚴重缺陷。大西洋理事會數碼鑑證實驗室的Emerson Brooking指出,俄羅斯使用AI自動化宣傳表現不佳。大型語言模型常常捏造事實、加深偏見,難以準確理解複雜國家的「心態」,容易誤導操作者只聽取其想聽的答案。
AI Now研究所首席科學家Heidy Khlaaf警告,所謂的「代理性AI」雖被科技公司吹捧為自主數碼大腦,實際上仍錯誤頻出且難以預測,容易被操縱,可能產出非預期的宣傳材料,帶來安全風險。
Brooking還提到,美國以前的網絡宣傳行動成效不佳,甚至招致尷尬。2022年揭露美國中央司令部秘密運營的一批Twitter和Facebook帳號,散播反俄、反伊朗的虛假新聞,但未獲得廣泛響應。這些經驗顯示:「AI反而令宣傳活動變得更愚蠢,而非更有效。」
軍方早已涉足資訊操控,現正加速AI武裝
SOCOM過去幾年已公開表達對AI宣傳系統的興趣,且不只針對軍事人員,還希望影響更大範圍的人群。2019年一名高級軍官在防務研討會上提出要超越20世紀的信息傳播方式,將影響行動視為現代非正規戰爭的重要一環,並強調需與非政府組織及個人合作,放大揭露競爭對手惡意行為的聲音。2020年時任SOCOM指揮官Richard Clarke將軍則表示,AI和機器學習工具對於理解敵人思維及民眾心態、在信息戰中發揮關鍵作用。
然而,這種「以火攻火」策略引發專家質疑。Khlaaf認為,將生成式及代理性AI僅視為對抗敵方的手段,是對技術的誤解,因為進攻與防守本質上是同一枚硬幣的兩面。
五角大樓曾被揭發秘密操作反疫苗社交媒體行動,意圖削弱公眾對中國科興疫苗的信心,擔心該疫苗會令亞洲國家靠攏中國。這些行動顯示軍方有操控民眾輿論的歷史,且AI技術的引入可能令這類行動規模和速度大幅提升。
總結評論
美國軍方對AI在資訊戰的投入,顯示在全球網絡輿論戰日益激烈的背景下,傳統軍事力量已不再足夠。SOCOM明確表示要用AI製造、散播宣傳,並壓制異議,這不僅是技術升級,更是戰略思維的根本轉變。
然而,AI生成的宣傳內容錯誤頻出、易被操控,且過度依賴模型的「預設立場」可能導致信息失真,這些技術缺陷帶來的安全風險不容忽視。更重要的是,當軍事力量介入網絡信息空間,壓制異議聲音,會加劇社會分裂,甚至侵蝕民主價值。這種「高科技宣傳戰」的長遠影響值得深思。
從全球視野看,中國和俄羅斯等國的AI輿論戰策略已經推動美國軍方不得不回應,形成一場科技與信息的軍備競賽。美國不應僅僅聚焦於「防禦」外國影響,更須審慎評估自身使用AI宣傳的倫理與法律界線,確保不淪為自己最擔憂的敵人。
總括來說,AI在軍事宣傳的應用,既是一把雙刃劍,也是一場深刻的社會政治挑戰。監督、透明和民主價值的堅守,應該成為未來技術發展不可或缺的保障。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
