Google 放棄 AI 武器禁令,轉軚發展軍事用途?

Ai




Google放棄不開發AI武器的承諾

Google已經放棄了不開發可用於武器或監控系統的人工智能(AI)系統的道德承諾,理由是需要支持“民主國家的國家安全”。

Google首席執行官Sundar Pichai在2018年6月發表的一篇博客中曾明確表示,該公司不會追求會“造成或可能造成整體傷害”的AI應用,並專門承諾不開發用於“武器或其他主要目的是造成或直接促進對人類傷害的技術”的AI。他還強調,Google不會追求“違反國際公認規範的監控技術”。

但在最近的一篇博客中,Pichai與Google DeepMind首席執行官Demis Hassabis及公司技術與社會高級副總裁James Manyika聯合撰寫,為此次改變辯護。他們指出,當前全球正面臨一場AI領導權的競爭,尤其是在日益複雜的地緣政治背景下。他們認為,民主國家應該在AI發展中領導,並以自由、平等和尊重人權等核心價值為指導。

他們進一步表示,Google的AI原則將集中於三個核心要素,包括“勇敢的創新”,旨在“幫助、賦能和啟發人類幾乎所有領域的努力”,以及應對人類面臨的重大挑戰;“負責任的開發與部署”,即在整個系統生命周期內負責任地推進AI;以及“共同進步”,專注於“賦權他人積極利用AI”。

對於Google的政策變化,倫敦皇后瑪麗大學政治理論教授Elke Schwarz表示,儘管這一決定並不令人驚訝(因為該公司已經在向美國軍方及以色列國防軍提供雲服務),但她仍對大型科技公司對軍事AI的態度變化感到擔憂,許多公司現在甚至認為不參與開發軍事AI應用是“不道德的”。

Schwarz指出,Google現在能夠在不面臨重大反彈或後果的情況下,做出如此重大且公開的改變,反映出當前對於從暴力中獲利的道德擔憂的接受程度。這顯示出全球科技產業正逐漸成為全球軍事產業的一部分,並且暗示著對一切事物的軍事化正在加劇。

專家此前對軍事AI的倫理影響提出了擔憂,包括算法驅動的致命行為可能導致去人性化,以及目標選擇過程中由於編程或標準的偏見而引發的歧視風險。還有關於自主武器系統能否實現有意義的人類控制的疑慮,因為自動化偏見和這類武器加速戰爭的速度超出了人類的認知能力。

在2024年,其他AI開發者(包括OpenAI、Anthropic和Meta)也撤回了自己的AI使用政策,以允許美國情報和國防機構使用他們的AI系統。他們仍然聲稱不會讓其AI對人類造成傷害。

Computer Weekly就此變更聯繫了Google,詢問其如何在國家安全背景下負責任地推進AI開發,以及是否會對其AI系統的應用類型設定任何限制,但未獲得回應。

“不做惡”

Google的這一舉動引發了強烈的批評,包括人權組織對自主武器或大規模監控中使用AI的擔憂。國際特赦組織表示,這一決定“可恥”,並稱其將設立一個“危險”的先例。

國際特赦組織的研究員和AI及人權顧問Matt Mahmoudi指出,“AI驅動的技術可能會在大規模上促進監控和致命的殺戮系統,潛在地導致大規模侵犯和侵犯基本隱私權。”

他強調,Google決定撤回對AI武器的禁令,使該公司能夠銷售推動包括大規模監控、為半自動化打擊開發的無人機和旨在加速決策殺戮的目標生成軟件等技術的產品。

人權觀察組織同樣強調,自我規範的問題性。該組織指出,“像Google這樣的全球行業領導者能夠突然放棄自我宣稱的禁忌做法,凸顯了為什麼自願指導方針無法替代規範和可執行法律。”

大多數國家支持對AI驅動的武器系統進行多邊控制,但在2024年4月維也納舉行的會議上,歐洲外交部長和民間社會代表指出,少數強國(包括英國、美國和以色列)卻因反對有約束力的措施而阻礙進展。

塞拉利昂外交部長Timothy Musa Kabba指出,隨著氣候變化和自主武器系統等新現實的出現,現有的多邊體系需要重新考量,他強調任何新的或改革的機構必須具包容性、民主性和適應性。

這一政策變化不僅引發了對Google的質疑,同時也反映了科技行業在軍事化進程中的角色轉變。這是對道德和法律邊界的一次挑戰,企業在追求利益的同時,如何平衡社會責任,將成為未來的重要課題。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗