OpenAI 關閉開發者製作的 AI 驅動自動炮塔
OpenAI 最近關閉了一位開發者,他製作了一個能夠響應 ChatGPT 指令來瞄準和開火的自動步槍裝置。這個設備在 Reddit 上的一段視頻中迅速走紅,視頻中開發者大聲讀出開火命令,隨後他旁邊的步槍迅速開始瞄準並向附近的牆壁開火。
在視頻中,開發者對系統說:“ChatGPT,我們正受到左前方和右前方的攻擊。”他要求系統“作出相應的反應”。這把步槍的反應速度和準確性令人印象深刻,依賴 OpenAI 的實時 API 來解釋輸入並返回裝置能理解的指令。只需簡單的訓練,ChatGPT 就能接收到「向左轉」的命令並理解如何將其轉換為機器可讀的語言。
OpenAI 在一份給《未來主義》的聲明中表示,他們已經查看了視頻並關閉了這位開發者的賬戶。「我們主動識別到這一政策違規行為,並在收到你的詢問之前通知開發者停止這一活動。」該公司告訴媒體。
自動化致命武器的潛力是批評者對 OpenAI 等 AI 技術提出的擔憂之一。該公司的多模態模型能夠解釋音頻和視覺輸入,了解人們的周圍環境並對他們所看到的內容做出回應。自動無人機已經在開發中,這些無人機可以在戰場上識別和攻擊目標,而無需人類的輸入。這當然是一種戰爭罪行,並且可能使人類變得麻木,讓 AI 決定行動,這使得追究責任變得困難。
這一擔憂似乎並非理論上的問題。根據《華盛頓郵報》最近的一份報告,以色列已經使用 AI 來選擇轟炸目標,有時甚至是隨意的。「未經良好訓練的士兵在使用該技術時,對人類目標發動進攻,完全沒有核實 Lavender 的預測。」報導提到一種 AI 軟件。「在某些情況下,唯一的核實要求是目標是男性。」
支持在戰場上使用 AI 的人認為,這將使士兵更安全,因為他們可以遠離前線,並對如導彈庫等目標進行打擊,或從遠處進行偵察。而且,AI 驅動的無人機可以精確打擊。但這取決於它們的使用方式。批評者認為,美國應該更好地干擾敵方通訊系統,讓像俄羅斯這樣的對手更難發動自己的無人機或核武器攻擊。
OpenAI 禁止其產品被用來開發或使用武器,或自動化可能影響人身安全的某些系統。然而,該公司去年宣布與防務科技公司 Anduril 合作,這是一家製造 AI 驅動無人機和導彈的公司,旨在創建可以防禦無人機攻擊的系統。該公司表示,將「快速綜合時間敏感數據,減輕人類操作員的負擔,並改善情境意識。」
不難理解為什麼科技公司對進軍戰爭產業感興趣。美國每年在國防上花費近一萬億美元,削減這一開支仍然是一個不受歡迎的想法。隨著當選總統特朗普將其內閣填充以如 Elon Musk 和 David Sacks 等保守派科技人物,許多防務科技公司預計將大幅受益,並可能取代現有的防務公司如洛克希德·馬丁。
雖然 OpenAI 阻止其客戶使用其 AI 來製造武器,但仍然存在大量開源模型可以用於相同的用途。再加上 3D 打印武器部件的能力——這正是執法部門懷疑的美國健康保險公司槍手盧伊吉·曼喬內所做的——從舒適的家中製造 DIY 自動殺戮機器正變得異常簡單。
這篇文章引發了對 AI 技術在戰爭中的道德和法律問題的深思。隨著技術的快速發展,我們必須考慮如何有效地規範和限制其應用,特別是在涉及人類生命的情況下。這不僅僅是關於技術的創新,更是關於人類的責任和道德選擇。我們是否準備好面對這些挑戰,並確保科技的進步不會成為人類自我毀滅的工具?
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。