Scale AI 宣布與美國國防部簽署數百萬美元防務合約,推動軍事自動化的重要一步
Scale AI 在週三宣布與美國國防部達成一項重要的人工智能代理計劃合約,這一舉措在爭議不斷的軍事人工智能應用領域中具有重大意義。
這家人工智能巨頭為 OpenAI、Google、Microsoft 和 Meta 等主要 AI 企業提供訓練數據,已獲得國防部的原型合約,該合約是「Thunderforge」計劃的核心,旨在利用人工智能代理進行美國軍事規劃和操作。
根據知情人士透露,這是一項數百萬美元的合約,因合約的保密性,該人士要求匿名。
該計劃由國防創新單位牽頭,將結合包括 Anduril 和 Microsoft 在內的「全球技術合作夥伴」團隊,開發和部署人工智能代理。其用途將包括建模和模擬、決策支持、建議行動方案甚至自動化工作流程。計劃的推行將從美國印太司令部和美國歐洲司令部開始,然後擴展至其他地區。
根據國防創新單位的聲明,「Thunderforge 標誌著向人工智能驅動的數據戰爭的決定性轉變,確保美國部隊能夠快速且精確地預測和應對威脅。」該聲明還指出,這個計劃將「加速決策過程」,並推動「人工智能驅動的戰爭遊戲」。
Scale AI 的首席執行官 Alexandr Wang 在一份聲明中表示:「我們的人工智能解決方案將改變當今的軍事操作流程,並現代化美國防務。……國防創新單位的加速將為我們國家的軍事領導人提供最大的技術優勢。」
Scale 和國防創新單位都強調了速度,以及人工智能將如何幫助軍事單位更快地作出決策。國防創新單位在其聲明中提到速度這一概念八次。
國防創新單位主任 Doug Beck 在聲明中強調了「機器速度」,而該計劃負責人 Bryce Goodman 則指出,當前存在「現代戰爭的速度與我們的反應能力之間的根本不匹配」。
儘管 Scale 提到該計劃將在人類監督下運作,但國防創新單位並未強調這一點。
軍事與人工智能的合作趨勢
Scale 的公告是人工智能公司不僅放寬對其產品軍事用途的禁令,還與防務行業巨頭及國防部建立合作夥伴關係的更廣泛趨勢的一部分。
去年十一月,由前 OpenAI 研究高管創辦的、亞馬遜支持的 AI 初創公司 Anthropic 與防務承包商 Palantir 宣布與亞馬遜網絡服務達成合作,為美國情報和防務機構提供訪問 Anthropic 的 Claude 3 和 3.5 系列模型的服務。今年秋季,Palantir 簽署了一份新的五年合同,金額最高可達 1 億美元,以擴大美國軍方對其 Maven AI 戰爭計劃的使用。
去年十二月,OpenAI 與 Anduril 宣布了一項合作,允許這家防務科技公司部署先進的人工智能系統以支持「國家安全任務」。
這項 OpenAI 與 Anduril 的合作專注於「改善國家對無人機系統的反制能力,並實時檢測、評估和應對潛在的致命空中威脅」,聲明中補充說,這筆交易將幫助減輕人類操作員的負擔。
Anduril 的聯合創始人 Palmer Luckey 在當時未對 CNBC 關於減輕人類操作員負擔是否會導致在高風險戰爭決策中更少人參與的問題作出回應。
當時,OpenAI 對 CNBC 表示,它堅持其使命聲明中禁止使用其人工智能系統對他人造成傷害的政策。
然而,根據一些行業專業人士的說法,這並不容易做到。
Hugging Face 的研究員和首席倫理科學家 Margaret Mitchell 在接受 CNBC 採訪時表示:「問題在於你無法控制技術的實際使用情況——如果不是在當前的使用情況下,那麼在你已經共享技術之後,肯定會在長期內出現這樣的情況。」她表示,「我對公司實際上是如何意識到這一點感到有些好奇——他們是否有安全許可的人來實際檢查使用情況,並驗證它是否在不造成直接傷害的限制內?」
Mitchell 提到,Hugging Face 曾經拒絕過軍事合約,包括那些不包含直接傷害潛力的合約。她表示,團隊「理解這是直接傷害的邊緣」,並補充說,「即使是看似無害的事物,這顯然也是監視流程中的一個環節。」
Mitchell 指出,即使是總結社交媒體帖子也可能被視為直接傷害的邊緣,因為這些摘要可能被用來識別和消滅敵方作戰人員。
她表示:「如果這距離傷害只有一步之遙,並且有助於加劇傷害,那這是否真的更好?我覺得這是一條有些任意的界線,這對公司的公關和員工士氣可能有利,但並不一定帶來更好的道德情況……你可以告訴國防部,『我們將給你這項技術,請不要以任何方式用它來傷害人』,他們可以說,『我們也有倫理價值,因此我們會遵循我們的倫理價值』,但他們無法保證不會用於傷害,而作為公司你也無法看到它是否被用於傷害。」
Mitchell 稱這是一場「語言遊戲,給人一種可接受或非暴力的假象」。
科技的軍事轉向
谷歌在二月份刪除了不使用可能有害應用(如武器和監控)的承諾,這是該公司更新的「AI 原則」中的一項變更。這一變更與之前版本中的規定形成對比,該版本中谷歌表示不會追求「武器或其他主要目的或實施是對人造成傷害的技術」,以及「收集或使用信息進行監視的技術,違反國際公認的規範」。
在 2024 年 1 月,微軟支持的 OpenAI 安靜地取消了對軍事使用 ChatGPT 及其他人工智能工具的禁令,正值其開始與美國國防部合作開發包括開源網絡安全工具在內的人工智能工具。
在此之前,OpenAI 的政策頁面明確規定該公司不允許將其模型用於「具有高風險的物理傷害」的活動,例如武器開發或軍事戰爭。但在更新的語言中,OpenAI 刪除了對軍事的具體提及,儘管其政策仍表示用戶不應「利用我們的服務來傷害自己或他人」,包括「開發或使用武器」。
有關軍事合作夥伴關係和使命聲明變更的消息,隨著科技公司為軍事用途開發技術的爭議持續多年而浮出水面,這一情況引起了公眾對科技工人,特別是人工智能工作者的關注。
幾乎所有涉及軍事合約的科技巨頭的員工都表達了擔憂,幾千名谷歌員工曾抗議該公司參與五角大樓的 Maven 項目,該項目將使用谷歌的人工智能分析無人機監控影像。
隨後,Palantir 接管了這一合約。
微軟的員工曾抗議一項價值 4.8 億美元的軍隊合約,該合約將為士兵提供增強現實耳機,而超過 1500 名亞馬遜和谷歌的工作人員則簽署了一封信,抗議與以色列政府和軍方的聯合 12 億美元的多年度合約,根據該合約,這些科技巨頭將提供雲計算服務、人工智能工具和數據中心。
Mitchell 表示:「這類事情總是會有擺動的情況。我們現在正處於一個員工在科技公司中的發言權比幾年前少的時期,因此這就像一個買方和賣方的市場……公司的利益現在遠比個別員工的利益重。」
這一系列的動態顯示了科技公司與軍事界的逐漸融合,對於未來的道德考量和社會責任,業界需要進行更深入的反思。隨著人工智能技術的迅速發展,如何平衡技術進步與人類福祉的關係,將成為一個持續的挑戰。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。