「無人機戰爭:Shield AI創辦人談AI與道德」

Ai

Shield AI創辦人談死亡、烏克蘭無人機和無人想要的AI武器

大約兩個月前,Shield AI的聯合創辦人Brandon Tseng和他的員工正乘坐Uber穿越烏克蘭基輔,準備與軍方官員會面,推銷他們的AI飛行系統和無人機。突然間,他的員工在手機上收到警告:俄羅斯的炸彈即將來襲。Tseng面對潛在的死亡威脅只是聳了聳肩:「如果是你的時候到了,那就是你的時候到了。」

如果說什麼的話,曾經是海豹突擊隊成員的Tseng似乎渴望更多的行動。Shield AI的員工之前曾經到過烏克蘭更危險的地區,訓練部隊使用其軟件和無人機。「我對他們可以去的地方感到很嫉妒,」Tseng說。「從冒險的角度來看。」

Tseng體現了大多數防禦技術創辦人所擁有的那種低調的男子氣概。上個月在該公司阿靈頓辦公室見到他時,他展示了一把刻有海豹突擊隊口號「默默忍受」的刀。白色的牆壁頂部閃爍著熒光燈(Tseng說是為了看起來像太空船),上面掛滿了諸如「按榮譽行事」和「每天都要贏得你的盾牌」的標語。我指出這些標語相當激烈。「是嗎?」Tseng回應道。

2015年,Tseng與他的兄弟Ryan Tseng(獲得專利的電氣工程師)一起創立了Shield AI,目標明確:「我們打造了世界上最好的AI飛行員,」他說。「我想把一百萬個AI飛行員放在客戶手中。」

為此,他和他的兄弟已經從Riot Ventures和美國創新技術基金等投資者那裡籌集了超過10億美元。該公司開發AI軟件,使航空器自動化,Tseng表示他們還希望將Shield AI的軟件應用於水下和地面系統。它還有硬件產品,如其無人機V-BAT。

Shield AI還屬於一個罕見的防禦技術初創公司類別:實際上獲得了相當規模的政府合同,例如今年從海岸警衛隊獲得的1.98億美元合同。似乎是為了定位更大的未來,創辦人選擇了新辦公室,周圍有三層樓的雷神公司(一個主要的防禦承包商)。

烏克蘭:美國防禦技術初創公司的實驗室

9月16日標誌著時代的變遷:美國國會武裝服務委員會成員與Palantir的CTO Shyam Sankar、Brandon Tseng和Skydio、Applied Intuition和Saildrone的高管們在加州大學聖克魯斯分校的矽谷校區聚會。他們討論了美國國防部的採購改革,並不可避免地談到了美國技術在烏克蘭的角色。這是該委員會自2006年以來首次在華盛頓特區以外舉行的公開聽證會。

「烏克蘭一直是一個很好的實驗室,」Tseng告訴政策制定者。「我認為烏克蘭人發現他們不會使用在戰場上不起作用的任何東西。」

防禦技術創辦人,如Anduril的聯合創辦人Palmer Luckey和Skydio的聯合創辦人Adam Bry,都湧向這個飽受戰火蹂躪的國家,出售相對新的技術以應對迅速惡化的戰場。不幸的是,並非所有美國技術都在起作用。根據《華爾街日報》的一份報告,美國初創公司的無人機幾乎無一例外地無法在烏克蘭的電子戰中運作,這意味著這些無人機在俄羅斯的GPS屏蔽技術下停止工作。

「烏克蘭正在戰爭中,人們正在被殺害。但……你想要吸取這些教訓,」Tseng在聽證會後一周告訴我。「你不想重新學習這些教訓。美國不應該想要重新學習這些教訓。」

自然,他對Shield AI的無人機在烏克蘭表現優於其他無人機充滿信心,因為他說,它們可以在不依賴GPS的情況下運作。「我們正在努力根據我們取得的成功向那裡輸送更多的無人機,」他說,但拒絕具體說明Shield AI已經輸送了多少無人機。

終結者式的AI殺手?還是《安德的遊戲》?

Tseng的角落辦公室除了牆上掛著一幅歪斜的《憲法》複製品外,幾乎空無一物。他將其列為他最大的靈感之一。「這不是因為我們是完美的,而是因為我們追求這些我認為是完美的價值觀,」他說。「這是最重要的。我們總是在朝這個方向邁進。」

他整理了一下框架,然後簡要介紹了戰爭的歷史。他說,威懾通常發生在一種激進的新技術出現時,如原子彈、隱形技術和GPS。他說,AI將開創威懾的新時代——假設國防部適當地資助它。「私營公司在AI和自動化方面投入的資金比國防預算中的任何總和都多,」他說。

根據布魯金斯學會的一份報告,2023年AI相關聯邦合同的潛在價值從2022年的3.35億美元飆升至46億美元。但這仍然只是一個時期內風險投資公司在防禦技術上投資的超過700億美元的一小部分,根據PitchBook的數據。

儘管如此,軍事AI使用的最大問題不是預算——而是倫理。創辦人和政策制定者都在努力決定是否允許完全自動化的武器,這意味著AI本身決定何時殺戮。最近,一些創辦人的言論似乎支持建造這樣的武器。

例如,幾天前,Anduril的Luckey聲稱「我們的許多對手目前正在聯合國進行一場暗中運動」,試圖誘騙西方國家不積極追求AI。他暗示,完全自動化的AI並不比地雷更糟糕。然而,他並沒有提到,美國是160多個國家中同意在絕大多數地方禁止使用反人員地雷的國家之一。

Tseng堅決反對完全自動化的武器。「我曾經在戰場上做出過使用致命武力的道德決定,」他說。「這是一個人類的決定,這將永遠是一個人類的決定。這是Shield AI的立場,也是美國軍方的立場。」

他說的沒錯,美國軍方目前並不購買完全自動化的武器,儘管它並不禁止公司開發它們。如果美國改變立場怎麼辦?「我認為這是一個瘋狂的假設,」他回答。「國會不想要那樣。沒有人想要那樣。」

那麼,如果他不預見一支終結者式的殺手軍隊,他設想的是什麼?「一個人可以指揮和控制一百萬架無人機,」Tseng說。「在戰場上,一個人能夠有效指揮的沒有技術限制。」

這將類似於《安德的遊戲》,他說,指的是1985年那部科幻經典,其中一名兒童軍官可以輕輕一揮手就釋放出成千上萬的太空軍隊。

「除了他指揮的不是實際的人類,而是該死的機器人,」Tseng說。

編者評論:

這篇文章揭示了防禦技術初創公司如何在戰爭中尋找機會,同時也觸及了AI技術在軍事應用中的倫理問題。Tseng的故事讓我們看到,技術創新不僅僅是關於技術本身的突破,更是關於如何在實際情境中應用和驗證這些技術。烏克蘭戰爭作為新技術的試驗場,讓我們反思技術進步的代價和倫理界限。

Tseng堅持人類應該掌握致命武力的決定權,這一立場在當前技術迅速發展的背景下顯得尤為重要。AI技術的潛力巨大,但我們必須謹慎對待其應用,特別是在涉及人類生命的情況下。未來的戰場或許會有更多自動化和智能化的元素,但這不應該使人類的道德和倫理責任被淡化。

總的來說,這篇文章不僅展示了Shield AI的技術和市場策略,更引發了我們對科技與倫理的深刻思考。香港作為一個科技與創新並重的城市,也應該關注這些全球性的科技動向和其背後的倫理討論。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *