特朗普限州AI規管 創新與安全大博弈

Ai




特朗普行政命令限制州政府監管AI的嚴重風險

近年來,美國多個州紛紛推出人工智能(AI)相關法規,旨在保護居民免受AI技術可能帶來的各種風險。然而,特朗普政府於2025年12月11日簽署的一道行政命令,試圖取代這些州級AI法律,認為它們阻礙了AI創新,令這些保護措施面臨威脅。

多達38個州在2025年通過了不同形式的AI相關法案,涵蓋範圍廣泛,從禁止利用AI機械人進行跟蹤,到禁止使用AI系統操控人類行為等。特朗普的行政命令主張建立一個「最低負擔」的全國AI監管框架,要求司法部成立專責小組挑戰與此政策不符的州法,並授權商務部識別「繁重」的州法,並在寬頻資金分配上予以制裁。該命令豁免了與兒童安全相關的州法。

行政命令是聯邦政府對現有法律實施方式的指示,特朗普政府聲稱其行動皆符合法律授權。大科技公司則積極遊說聯邦政府,以推翻繁多的州級法規,認為多重監管阻礙了創新。

州法的監管範疇與實例

支持州法者認為,這些規範是為了在公共安全與經濟利益間取得平衡。加州、科羅拉多、德州與猶他州等均有代表性法案。

算法歧視:科羅拉多州的《人工智能消費者保護法》是全美首例針對AI在就業、住房、信貸、教育及醫療決策中使用的全面監管法,要求企業進行風險評估、通知消費者AI應用情況,以及公開管理算法歧視風險的方法。類似的伊利諾伊州法案將於2026年1月生效,將AI導致的歧視定為民權違規。

前沿AI模型監管:加州的《前沿人工智能透明法》針對成本超過1億美元、訓練需達10的26次方浮點運算的大型AI模型(如OpenAI的ChatGPT、谷歌的Gemini),要求開發者說明如何符合國內外標準,評估潛在災難風險,並設立緊急事件通報機制。這些大型模型因其「黑盒子」性質,結果難以預測且不透明,存在被惡意利用甚至造成社會災難的風險。

公開披露與責任:德州通過的《負責任人工智能治理法》限制AI系統用於行為操控,並設立「沙盒」環境供開發者安全測試AI行為。猶他州則規定企業須向消費者披露其使用生成式AI技術,確保企業對AI帶來的風險承擔最終責任。

其他州的行動與爭議

佛羅里達州州長羅恩·德桑蒂斯反對聯邦政府干預州AI規管,並提出《佛羅里達AI權利法案》,針對AI技術的「明顯危害」制定規範。同時,包括華盛頓特區、波多黎各、美屬薩摩亞及美屬維京群島在內的38州檢察長,聯合要求主要AI企業改善生成式AI的「諂媚」和「妄想」輸出,防止用戶對AI系統產生過度信任甚至錯誤認知。

目前尚不清楚該行政命令的實際影響,有專家指出該命令可能違法,因為只有國會才有權推翻州法律。行政命令的最後一條規定,要求聯邦官員提出立法建議以實現此目標。

評論與啟示

特朗普政府這道行政命令,表面上是為了統一AI監管,減少企業遵守多重州法的負擔,以促進技術創新。然而,這種做法忽視了各州根據自身社會環境制定差異化規範的必要性,尤其是AI技術帶來的潛在風險多元且複雜,單一的「最低負擔」框架可能無法有效保障公眾利益。

州政府在AI監管上的積極作為,反映了對技術濫用、算法偏見及安全風險的深刻擔憂,這些是聯邦政府尚未全面涵蓋的領域。加州、科羅拉多和德州等州的法律不僅聚焦技術本身,更關注其對人權、消費者保護及社會安全的影響,這是實現負責任AI治理的關鍵。

此外,行政命令可能引發的法律爭議,也凸顯出在AI監管領域,聯邦與州權力的界限尚未明確。這提醒我們,AI政策的制定不應僅依賴行政命令,而應通過透明且包容的立法程序,充分考慮多方利益與風險。

最後,AI技術的黑盒特性與潛在災難性風險,要求監管不僅是技術層面的控制,更需建立有效的風險評估、事故通報及責任追究機制。各州的創新嘗試值得借鑒,但也需避免過度碎片化導致監管空白或衝突。

對香港及全球而言,這場關於AI監管的聯邦與州之爭,提醒我們在推動AI發展同時,必須謹慎平衡創新與安全,建立多層次、多維度的監管體系,才能真正保障公眾利益,防範技術帶來的潛在危害。

以上文章由GPT 所翻譯及撰寫。而圖片則由GEMINI根據內容自動生成。