人工智能監管的“雞或蛋”問題
隨著人工智能技術的快速發展,對其進行監管的努力也急劇增加。政策制定者們正努力跟上這一快速變化的行業,導致針對人工智能的文本、法案、法律和框架數量呈指數增長。2024年,美國各州的立法者提出了近700項人工智能立法。這樣大量的新規定為開發者帶來了重大不確定性,但並未必能改善消費者的安全。
制定有效、相關且持久的監管需要幾個關鍵因素。首先,政策制定者需要對法律的對象有一個工作的定義,這需要深入研究,以捕捉其文本將影響的本質。就人工智能而言,這是一個具有挑戰性的任務,因為隨著技術的演變,它的定義仍在變化。經濟合作與發展組織(OECD)在2023年11月決定更新其人工智能系統的官方定義,以確保“持續相關性”,就體現了這種動態。政策制定者還需要充分理解這項技術對社會各個方面的影響,以創建有效的範圍,減少可能削弱其努力的盲點。最後,他們需要預測未來的發展和趨勢,以確保其方法在長期內保持相關性。
人工智能監管的全球競爭:首位並不總是最佳
這些監管挑戰為政策制定者創造了一個競爭環境,他們希望設立潛在的黃金標準。各國政府認為,通過提出可能塑造這一全球行業未來的框架,他們有潛力獲得優勢。這對於在技術競賽中落後的行為者來說尤其如此,例如中國和歐盟。
歐盟在2024年6月通過了其人工智能法案。這項具有里程碑意義的立法標誌著塑造人工智能的發展和部署的重要一步。然而,儘管該法案內容全面,但關鍵問題仍然存在:它在長期內會保持相關性嗎?科技行業的特點是快速變化,其本質產生的意外能力和特徵不斷挑戰現有的監管框架。
這使我們面臨一個矛盾的挑戰:監管者必須同時預測未來市場趨勢和技術發展的軌跡,同時應對已經複雜和混亂的環境現實。這種情況,加上創新速度的快,讓人難以導航。監管的嘗試可能會迅速變得無關緊要。
中國試圖確立自己在人工智能監管方面的領導地位,便是這種快速監管過時的一個引人注目的例子。在2022年11月,中國推出了《深度合成互聯網信息服務管理規定》,這是針對生成式人工智能技術的首次監管嘗試之一。這項法規包括基礎要求,例如要求向用戶披露合成內容並實施明確的標籤系統,以減少這些工具的欺騙潛力。
在發布時,這些規定足以應對生成式人工智能技術的穩步但有限的範圍,當時這些技術在小圈子外仍然不太被理解。然而,“深度合成互聯網信息服務”這一術語對公眾來說仍然相對陌生,且主要在中國的特定監管和學術背景中使用。與此同時,自2022年以來,這項基礎技術已被廣泛採用,根本挑戰了中國網絡空間管理局(CAC)發布的監管的相關性。
中國立法的時間特別值得注意。該法案於2022年11月25日發布,恰好在OpenAI於2022年11月30日向公眾推出ChatGPT的幾天前。這一產品根本改變了公眾與生成式人工智能的關係。儘管“生成式人工智能”這一術語早在ChatGPT之前就已存在,但早期僅限於小圈子和技術精通者。OpenAI的工具向公眾免費開放,迅速將生成式人工智能推向了主流,迫使個人和企業重新考慮他們對這些技術的理解和參與。
ChatGPT的可及性標誌著一個範式轉變。生成式人工智能突然成為一種廣為認知和理解的技術,顯著降低了企業和個人採用的門檻。因此,許多新的關注領域隨之出現,從學術辯論和媒體報導到低技能工人對失業的擔憂。
這種前所未有的生成式人工智能的流行為政策制定者在如何應對新形勢方面帶來了不確定性。迫切需要框架、定義和語言來充分理解這項技術的影響及其框架。隨著技術超越預期,早期的監管努力迅速變得不足和過時,讓政策制定者陷入了趕超的困境。
這正是中國監管者在初步應對生成式人工智能領域時所面臨的情況。法律中概述的基本條款不足以應對生成式人工智能廣泛採用所帶來的深刻社會影響。試圖將中國建立為人工智能監管早期參與者的努力,被技術進步和私營部門創新的步伐所超越,甚至使得相關術語都顯得過時。
因此,不到一年後,中國網絡空間管理局發布了新的監管規定。2023年5月,通過了《生成式人工智能服務管理暫行辦法》,並於同年8月15日生效。值得注意的是,該立法採用了更為普遍認可的“生成式人工智能”術語,反映出監管者需要適應不斷演變的語言和公眾理解。
需要指出的是,這種情況並不是因為中國政府無法為人工智能制定監管。事實上,中國在制定全國性法案以規範人工智能的發展和部署方面一直是非常早期的參與者。在這方面,CAC發布的一些條款在提供者的義務方面比歐盟的提議更具體。
雖然這個案例研究看似微不足道,但卻特別能夠說明當前的情況。政策制定者在監管人工智能方面面臨著巨大挑戰;隨著技術以前所未有的速度進步,治理工作卻難以跟上。兩個核心因素使這一任務特別艱鉅。首先,人工智能本身的特性創造了獨特的監管障礙。人工智能系統本質上是不可預測的,其能力往往在運行過程中意外出現。這些系統最終可能作為複雜的計算實體運作,超越其組件的總和,挑戰傳統的控制或監督方法。制定能夠預測和管理這種動態行為的監管措施顯得尤為棘手。
其次,與早期的技術革命(例如互聯網)不同,當時政府深度參與了資金和塑造發展的過程,人工智能幾乎完全由私營實體和私有資本推動。這種幾乎完全的創新私有化使公共機構處於邊緣地位,限制了其對技術的理解和制定信息前瞻性政策的能力。結果是創新與治理的明顯脫節,監管者在技術進步超出其監管框架的環境中不斷追趕。
落後的後果
這些挑戰的後果在未來幾年可能變得嚴重。人工智能的進步以其難以預測的特性著稱,越來越強大的模型不斷出現。公眾可用模型中出現的雙重用途能力引入了重大風險。惡意行為者可能會利用公眾可用的模型進行網絡或動態攻擊,導致重大經濟損失和潛在的生命損失,這進一步強調了全面監管的必要性。此外,具有更高自主性的先進人工智能系統對我們的民主也構成了前所未有的挑戰,因為這些工具可能損害選舉的完整性,並深刻損害公眾對我們機構的辯論和信任。最後,私營部門在追求人工通用智能(AGI)上的數十億美元投資可能迫使我們進行一次徹底的監管重置,讓這項技術超越我們迄今所觀察到的。
建立有效的結構以重新連接技術研究和治理努力至關重要。協調這兩種力量將導致互相理解和目標一致的自我強化循環,使我們能夠擺脫政策制定者與行業領導者之間的持續競賽。在這方面,人工智能安全研究所的工作至關重要,歐盟人工智能辦公室和美國人工智能安全研究所成功吸引私營部門主要參與者的努力也非常有價值。通過全球安全研究所的知識交流促進合作,是避免稀疏努力無法充分應對全球化風險的最佳策略。
面臨的政治障礙
然而,這些努力仍然面臨威脅。即將上任的特朗普政府可能會撤回拜登推動的人工智能安全計劃,重新回到私營部門的自我標準化體系,進一步增加政策制定者所面臨的挑戰。同樣,在歐洲,法國總統馬克龍將即將於2025年舉行的法國“人工智能安全峰會”改名為“人工智能行動峰會”,這顯示了在尋求競爭優勢的政府中,政策制定努力與權力驅動的方式之間的同步困難。
即使是這些尖端技術的開發者,通常也難以完全理解其社會影響。術語本身的變化突顯了這一問題的緊迫性。如果不進行協同努力來研究這些技術並發展共享的詞彙來定義它們,我們可能會陷入監管不足的惡性循環。促進對人工智能潛在影響的知識參與,並培養能夠讓社會共同標籤和框定這些現象的知識至關重要。這一基礎工作對於實現長期安全,同時釋放有前景的技術的變革性好處是必不可少的。
在此文章中,我們看到人工智能監管面臨的複雜性和挑戰。隨著技術的迅速演變,政策制定者必須不斷調整以應對不斷變化的環境。這不僅是技術和法律之間的博弈,更是對於如何在快速變化的世界中保持社會安全和公眾信任的深刻思考。未來的監管框架需要靈活且具前瞻性,以應對不斷變化的技術和社會需求。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。