AI政變:馬斯克點樣用AI顛覆美國政府?

Ai

🎬 YouTube Premium 家庭 Plan成員一位 只需
HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放


立即升級 🔗

人工智能政變的解剖

科技政策撰稿人:Eryk Salvaggio / 2025年2月9日

DOGE正在削弱聯邦機構,以便在政府內部推廣人工智能。民主正岌岌可危,科技政策撰稿人Eryk Salvaggio如是說。

2025年1月20日,華盛頓特區:億萬富翁科技企業家、政府效率部門的“特別政府雇員”埃隆·馬斯克在國會圓頂下仰望,即將舉行唐納德·特朗普宣誓就任第47任美國總統的就職典禮。(照片來源:CHIP SOMODEVILLA/POOL/AFP via Getty Images)

人工智能(AI)是一種製造藉口的技術。儘管缺乏明確的定義或評估工具,AI卻已經抓住了政府、學術界和產業的政客和管理者的想像力。然而,AI最擅長的就是提供理由。如果你想讓勞動力、監管機構或問責制消失,你只需說:“AI可以做到。”這樣,討論就會從解釋為何這些東西應該或不應該消失轉向關於AI如何取而代之的問題。

我們正處於一場政治政變之中,如果成功,將永遠改變美國政府的本質。這場政變並不在街頭發生,沒有戒嚴法的實施,而是在聯邦機構的每一個小隔間中悄然進行,通過日常的官僚自動化。這一切的理由基於一種生產力神話,即官僚機構的目標僅僅是它所產出的(服務、信息、治理),而可以與民主達成這些目標的過程——辯論、深思和共識——隔離開來。

因此,AI成為取代政治的工具。特朗普政府將生成性AI視為“政府浪費”的解決方案。然而,它所尋求自動化的並不是文書工作,而是民主決策。馬斯克和他的政府效率部門(DOGE)寄希望於一種流行但錯誤的幻想,即文字預測技術能對世界做出有意義的推斷。他們利用這一點來迴避國會對預算的監督,這在憲法上是通過代議制政治將資源分配給政府項目。

雖然談論AI政變可能聽起來像是陰謀論或偏執,但這其實很平常。與馬斯克及其追隨者不斷聲稱的“生存危機”形成對比,後者想像AI會通過武力接管世界,AI政變卻源於我們將多少權力交給機器的集體決定。這是一種政治外包,將贏得政治辯論的繁瑣工作轉移給機器分析的虛假權威。這是一種將代表政治核心的集體決策轉移的方式。

角色陣容

我們可以通過描述角色來設置舞台。在馬斯克的DOGE兼職工作中,他擔任主導角色。他的團隊旨在利用生成性AI尋找預算效率,即使他正在削弱公務員隊伍。DOGE實體已經嘗試接管財政部的計算機系統以分配資金,並有效地解散了美國國際開發署(USAID)。馬斯克希望為政府機構提供一個“以AI為先的策略”,例如為美國總務管理局(GSA)提供的“定制生成性AI聊天機器人”。

托馬斯·謝德(Thomas Shedd),前特斯拉工程師,如今擔任總務管理局技術轉型服務主任,負責這一任務。謝德曾表示,聯邦政府需要一個集中數據庫來分析政府合同,儘管在數據保存和隱私方面的合法性存在疑問。

接下來是支持陣容。首先是一組擔任DOGE特工的配角。這些工程師,有些年齡在19至24歲之間,抵達各個政府機構,控制計算機系統,甚至沒有提供全名或說明他們的目的。儘管最年輕的剛剛高中畢業,這個團隊卻已經干擾了疾病控制中心和醫療保健及醫療補助服務中心的網絡,而馬斯克拒絕討論DOGE正在如何使用這些數據。2月5日,他們開始“數據挖掘”退伍軍人事務部的退伍軍人福利和殘疾補償記錄。這份清單還在繼續。

最後,我們有所謂的成年人。在特朗普推進AI的行政命令中,總統呼籲“無意識形態偏見或設計社會議程的AI系統”,並撤銷“阻礙美國AI創新的指令”,這一計劃將由新的AI和加密專員、風險資本家大衛·薩克斯(David Sacks)制定。薩克斯將與項目2025的架構師拉塞爾·沃特(Russell Vought)一起擔任預算辦公室(OMB)主任,並由特朗普政府的前任和現任白宮首席技術官以及白宮科學與技術政策辦公室主任提名人邁克爾·克拉齊奧斯(Michael Kratsios)共同參與。

計劃

在華盛頓的混亂中,矽谷公司將繼續證明自己是解決方案。我們可以預期不久將有行業宣布一個激進的新AI能力。OpenAI可能再次聲稱達到博士級別的智力(如2024年9月和2025年1月),或者DOGE可能推出一個基於政府數據的新聊天機器人。

在幾個月來嘲笑公務員的無能和高喊學術研究機構的“覺醒政治”之後,任何此類公告都可能會出現對文字預測的新錯誤認識。在這個故事中,AI政變的受益者將宣布完美的解決方案以應對政府失敗以及他們對科學中多樣性、公平性和包容性的可惡承諾。解決方案將是一個“集中數據庫”,連接到聊天機器人和一系列承諾。

謝德在與新團隊的會議上錄音時描述了這樣的項目:

“因為隨著我們減少聯邦政府的整體規模,正如你們所知,仍然有大量的項目需要存在,這是技術和自動化發揮巨大作用的機會,這就是為什麼你們對這個下一階段至關重要……現在是建立的時候,因為,正如我所說,對技術服務的需求將會暴增。”

為了達到目的,這裡部署的任何生成性AI無需擅長做決策,甚至不需要展示任何新能力。它只需被視為人類決策的可行競爭者,足以將現有的公務員取而代之,這些工作人員體現了機構的價值和使命。一旦被替換,產生機構所需的知識將會消失。

一旦員工被解雇,機構不再是它自己。特朗普和馬斯克可以將其轉移到聊天機器人系統提示中記錄的任何目的,指導其能夠向用戶提供的輸出類型。

之後,自動化系統可能會失敗——但這是特徵,而不是缺陷。因為如果系統失敗,創造它的矽谷精英將在新的技術體系中確保自己的地位。這一體系將權力集中在那些理解和控制系統維護、保養和升級的人手中。任何失敗也將加速將工作轉移給私人承包商的努力。OpenAI的ChatGPTGov就是一個隨時可以投入運行的系統範例。通過將政府決策轉移到他們必然知道不合適的AI系統,這些科技精英避免了一場他們可能會失敗的政治辯論。相反,他們創造了一場全國性的IT危機,只有他們能夠解決。

削弱反對派

隨著技術精英將生成性AI嵌入被掏空的機構,政府將繼續努力削弱獨立研究機構。特朗普在2023年競選中提到“美國大學”,這是一個在線資源,提供“學習小組、導師、行業合作夥伴和最新的計算突破”,並聲稱“將嚴格無政治,沒有覺醒主義或聖戰主義”。特朗普提議美國大學將通過“徵稅、罰款和起訴過度龐大的私立大學捐贈基金”來進行資助。

這與特朗普政府報導的基於關鍵詞的系統相輔相成,該系統會拒絕任何即使是稍微涉及多樣性和包容性的研究資助。這一切都將影響大學的科學研究和財務。最終,這將創造一場危機,通過這場危機,高等教育的多樣性承諾將被削弱,進而可能被逼至死。被削弱的大學研究生態系統將強化私營部門,吸引科學家回到他們的實驗室,減少獨立研究的監督。

據報導,國家科學基金會拒絕資助的關鍵詞包含與去偏見AI有關的術語。專家們早已知道,算法系統對於多數群體是有偏見的,因為它們偏愛統計上佔優勢的樣本。然而,在研究中用來研究和解決算法偏見的詞語——包括“偏見”這個詞——現在成為了資金的紅旗。與算法偏見研究相關的其他詞語也層出不窮,例如研究“代表性不足”的人群或訓練數據中的“系統性”偏見。這一切都是特朗普承諾消除“激進的左翼思想”關於AI的部分。

奪取國會對政府支出和通過法令實行的項目的監督,並將其移交給自動化系統,將是AI政變完成的第一個跡象。這將標誌著從民主治理到技術專制的轉變,工程師們將決定如何將國會資金的使用權轉向行政部門的目標。拒絕分享系統輸出的見解——以安全或商業問題和“黑箱”神經網絡的神話為由——將使其免於國會的真正審查。

DOGE旨在用技術基礎設施取代政府官僚機構。逆轉和拆解嵌入基礎設施中的依賴關係是緩慢而艱難的,尤其是在禁止研究系統性偏見的情況下。“技術法西斯主義”的成分將會組裝到一起。

製造危機

最終,這些自動化政府機構和服務的粗糙基礎設施將產生導致AI驅動的國家危機的語言或代碼。因為目前沒有任何AI系統適合治理這一複雜任務,失敗是不可避免的。無論如何部署這一系統,都是人類的決定,人類應該為此負責。

AI的設計者們一再告訴我們,這一技術的威脅可與原子彈相提並論。

朗登·溫納(Langdon Winner)曾寫道,擁有核武器的國家的基礎設施要求“必須由一個集中、嚴格的層級指揮鏈來控制,這一指揮鏈應該對所有可能使其運作不可預測的影響關閉”。原子彈的內部社會系統必須是專制的,因為別無他法。

原子彈是真正對人類生命的威脅。但溫納警告說,對一項技術風險的單純認知可能會激發社會在使用該技術時的僵化,並蔓延至社會。當“原子彈”是一個聲稱能在民主政府中自動化決策的AI系統時,會發生什麼?

來自山姆·奧特曼(Sam Altman)、埃隆·馬斯克(Elon Musk)和其他人的反復、模糊的警告已經使公眾相信這種威脅即將來臨。他們認為,將單詞組合成引人入勝的排列將導致我們的實體毀滅。

不幸的是,許多立法者相信這個神話。多年來,專注於AI“生存風險”的團體進行了兩黨的遊說,使其成為一種只有矽谷技術精英才能控制的安全威脅。他們現在準備在任何危機中受益。

由於自動化系統無法確保安全代碼,可能的情景包括數據洩露給對手。在急於建設而忽視安全的情況下,團隊可能會直接部署AI編寫的軟件和平台。生成的代碼可能會實施依賴於外部或被攻擊資產的安全措施。這可能是最好的失敗情景。替代方案包括對敏感或重要數據的“幻覺”,這可能會在自動化依賴中引發連鎖反應,導致實際的、致命的次要後果。

美國可能如何應對?最近出現的DeepSeek——一種更便宜且更高效的中國大型語言模型——提供了一個行動手冊。兩黨政客對更實惠、更少能源依賴的AI的揭露作出了反應,重申了他們對美國AI公司的承諾。危機將提供另一個兩黨機會,以名義上進一步投資,推動以AI為先的美國政策。

算法抵抗

AI政變不僅源於唐納德·特朗普和埃隆·馬斯克的聯手。它源於如今在矽谷意識形態中標準化的做法和信念,這對大多數美國人來說是陌生的。然而,科技行業的弱點在於,它從未理解實際人類的情感和社會複雜性。

我上述描述的許多情況假設了公眾的被動、官僚機構的順從和國會的無所作為。它假設在法律灰色地帶運行是一種逃避司法監督的方式。這一策略在矽谷是眾所周知的,技術創新日益稀缺,但規範逃避卻很常見。

速度對他們的工作至關重要。他們知道無法為這一努力創建公共共識,必須在共識形成之前迅速行動。通過快速行動並打破規則,DOGE迫使系統崩潰,未解決的問題以技術解決方案作為回應。將討論轉移到技術層面是一種將政策制定者和公眾排除在決策之外的方式,並將權力轉移到他們所編寫的代碼中。

AI政變依賴於政府效率的框架。這為民主代表創造了一個陷阱,爭辯保留政府服務和公務員將被解釋為支持政府浪費。但這也是一個機會。AI通過消除服務來實現“效率”。AI,和之前的大數據一樣,可以利用便利性和效率來強化擴大數字監控的主張,並剝奪民主過程,同時減少問責制。

不要陷入這個陷阱。民主參與和代表政治在政府中並不是“浪費”。也不應該將爭論集中在特定系統的技術限制上,因為科技精英們不斷通過無休止的承諾將期望向上修正。爭論必須是,任何計算機系統都不應該取代選民的聲音。不要問機器是否可以信任。要問的是:誰在控制它們?

作者

Eryk Salvaggio是黑客、研究員、設計師和媒體藝術家的結合體,探索科技(包括人工智能)的社會和文化影響。他是2025年羅徹斯特理工學院人文、計算和設計項目的訪問教授。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

📣 即刻用 Google Workspace|唔使vpn都能享用 Google AI Pro

即使你只係一個人,都可以透過 Google Workspace 使用 官方Gemini AI Pro(原價 HK$160), 而在 Google Workspace 只要 HK$131 / 月

🔓 14 天免費試用
🔖 用呢條連結申請再有 額外 9 折
🇭🇰 香港可直接付款(香港信用卡)
🛡️ 不用 VPN,立即開用
🤖 可用 最新最紅Gemini 3 Pro & Nano Banana Pro
👉 立即登記 14 天免費試用 + 額外 9 折