重要! 個個AI模型都話可以處理長文和大量數據? Deepseek只係中游,Grok3 GPT4.1都要輸俾佢?

AI利益點樣分?中美角力下,發展中國家點算?

Ai

觀點
人工智能利益分享的政治
JOANNA WIATEREK / 2025年4月14日

人工智能技術的開發、部署和治理是在現有的結構性不平衡中進行的。地緣政治競爭,尤其是美國和中國這兩個前沿人工智能開發國之間的競爭,對人工智能的利益如何在全球範圍內擴散產生了重大影響。國際資源的分配可以通過市場動態被動發生,也可以通過利益分享等機制主動進行(例如,意外收入條款)。在這裡,我們將重點放在後者——它的政治、挑戰和替代方案。

國際人工智能治理的一個關鍵問題是,變革性的人工智能系統可能會加劇或減輕全球不平等。考慮到美國和中國目前的地緣政治主導地位及其領先的人工智能能力,人工智能利益分享很可能會繼續沿著進一步加強全球權力集中而不是改變結構以有利於全球大多數行為者的軌跡。我們提出了潛在的研究方向,以重新調整人工智能利益分享的方向,朝著更公平的情境發展。

關於人工智能利益分享
變革性人工智能(TAI),根據美國國家經濟研究局最近的一篇論文的定義,是指能夠在下一次工業革命的規模上產生社會轉型的人工智能技術。例如,TAI的出現可能會迅速導致市場產出激增和工資暴跌。

此外,研究和開發的自動化可能使得在十年內實現一世紀的創新成為可能。如果沒有適當的準備,這種技術和經濟進步的密集性可能會導致高度不對稱的收益和更廣泛的社會混亂。因為智能爆炸可能導致對TAI的失控或TAI驅動的權力集中等問題。

然而,少數國家準備好採用最先進的系統。這意味著人工智能的承諾很可能會不成比例地惠及全球人口中非常狹窄的一部分。儘管由於各國對人工智能的採用準備程度不同而導致的不平等擴大的風險構成了國內和國際的挑戰,但我們專注於後者,因為國內挑戰更有可能由於更強的激勵結構而得到解決。

國際人工智能利益分享是指支持和加速國際獲取人工智能經濟或更廣泛社會利益的努力。然而,實際上,“分享”這一概念以及“利益”的確切定義仍然相當模糊和有爭議:前者可能反映了依賴性,而後者似乎否認了這些利潤的掠奪根源。更重要的是,人工智能利益分享在多大程度上會重新平衡全球權力結構並增加全球大多數行為者對新興技術的主權或控制,仍然是不同政治議程之間的緊張關係。

歷史上,國際上關於利益分享的努力結果參差不齊,幾乎沒有緩解權力不平衡的情況。例如,在全球健康的背景下,利益分享往往未能促進公平。儘管有多項國際協議,全球大多數國家對主權基因資源的獲取通常未能與其在全球北方進行的科學研究中使用這些資源所帶來的利益相交換,例如與疫情相關的產品。同樣,儘管聯合國呼籲探索外太空以造福全人類,但全球大多數國家在利用太空技術促進其經濟方面仍然落後,受到主要大國政治的制約。

當前,人工智能利益分享的討論沿著類似的軌跡發展,進一步強化全球權力集中而非緩解它。在核心上,存在著不同行為者對這些努力最終目標的認知緊張。全球大多數國家強調對人工智能的控制以實現可持續發展和確保主權等。然而,儘管從全球正義的角度看,賦權於邊緣社區的公平分配是一個值得讚揚的目標,但它幾乎不影響決策。

尤其是隨著人工智能利益分享日益與美中人工智能競爭交織在一起,全球大多數國家在選擇其盟友和供應商時面臨著加劇的緊張關係。在這個意義上,人工智能利益分享可以視為另一種軟實力競爭的形式,像對外援助一樣,儘管在全球秩序上可能更具影響力,因為中等強國在提供人工智能資源方面的角色較弱。更現實主義驅動的邏輯可能使人工智能利益分享的倡導者從與美國對齊的角度來看待這一話題,即美國利用人工智能利益分享來強化其霸權的情境。雖然這種戰略方法在短期內可能會有所成效,但卻有可能進一步集中美中之間的權力,並未能實質性改善全球大多數國家對人工智能的獲取能力和在全球舞台上的發展自主性。

在當前的權力動態中,對人工智能利益分享協調的全球性方法似乎被忽視。這可能會導致全球大多數國家在短期內被排除在人工智能利益之外,並在長期內無法參與國際人工智能治理。挑戰在於建立公平的人工智能獲取機制,而不過度依賴美國或中國的控制,即使是它們的人工智能發展能力主導著當今的全球政治,並且要賦權於全球大多數行為者。

隨著人工智能利益分享這一新興領域的形成,我們認為促進討論和重新分配情境以賦權全球大多數國家至關重要。推動變革需要替代性和更多極化的方式,打破全球大多數國家在國際利益分享中的不利歷史模式。因此,全球大多數國家協調努力以索取人工智能利益、部署這些利益並放大它們的利潤會是什麼樣子?在接下來的6至18個月內,可以由誰來建立具體的全球重新分配機制,以應對TAI的破壞性影響?

挑戰
儘管人工智能的經濟整合目前仍然有限,但實質性的利益尚未完全顯現。然而,四個結構性因素已經在防止人工智能承諾的更公平分配中發揮了關鍵作用:

1. 人工智能是國家安全問題:其雙重用途——民用和軍用,使其在戰略上具有重要地位,導致政府嚴格控制其傳播,並大幅限制國際分享。
2. 缺乏共享的規範框架:在人工智能的獲取和部署方面,缺乏共享的國際規範或標準,導致不確定性和不信任妨礙了合作利益分享。
3. 私營部門主導和市場限制:私營部門主導著人工智能的前沿發展。當前市場驅動的激勵措施由於預期的盈利能力和監管風險而抑制了對全球大多數國家的投資和擴散。
4. 全球大多數國家的發展瓶頸:教育差距、不足的基礎設施、技術限制和監管不確定性進一步阻礙了人工智能在全球的擴散,特別是對全球大多數國家而言。

替代情境
鑒於現有的挑戰,我們強調了兩個關鍵方向,進一步研究賦權全球大多數國家的人工智能利益分享:

1. 確定公平人工智能資源分配的倡導者:這些倡導者需要能夠在全球治理桌上提出要求。這可以源於他們在人工智能供應鏈中的角色,結合市場槓桿。例如,印度在推動使全球大多數國家受益的人工智能利益分享交易中可以發揮什麼角色?它是全球科技巨頭最大的開放市場,也是OpenAI的第二大市場,還是Google的關鍵增長市場。印度將於2025年舉辦下一屆人工智能峰會,可能擁有要求人工智能利益分享情境的市場槓桿,這可能包括主張獲得前沿技術能力和開發這些前沿人工智能系統所需的必要要素。進一步的研究是必要的,以繪製全球大多數國家擁有的談判權力點,促進他們與主要人工智能行為者的更有意義的參與。了解地區聯盟的確切潛力以及中等強國在重新概念化人工智能利益分享為賦權工具方面的角色也至關重要,以減輕全球人工智能權力集中。

2. 概述人工智能利益分享的最佳情境:為了制定最合適的人工智能利益分享設計,首先需要理論化其期望的影響。一些關鍵的知識差距包括:

– 人工智能利益分享政策應該指向哪些目標?應該以什麼原則為基礎?
– 政策制定者如何減輕利益分享和人工智能風險之間的緊張關係?外交和技術解決方案可以發揮什麼作用?
– 在什麼市場和監管條件下,私營前沿人工智能實驗室會受到激勵,倫理地與全球大多數行為者分享人工智能能力?
– 全球大多數國家必須滿足什麼結構和制度條件,才能有效吸收和整合先進的人工智能能力進入其經濟體系?
– 哪些能力建設措施(技術、教育、監管)對於使全球大多數國家能夠可持續地部署和管理變革性人工智能技術最為有效?

總結來說,如果一世紀的創新發現可以在十年內發生,那麼迫切需要更清晰的願景,包括(1)一個全球受益的世界狀態,人工智能的利益可以朝向這個方向分享,(2)全球分配利益、決策權或自主權等的具體機制,(3)(國際)政策和資金優先事項的層次。就像2004年哥本哈根共識專家小組幫助優先考慮應對十個重大全球挑戰的提案一樣,人工智能利益分享這一新興領域今天需要的是基於共識的識別當前最重要的挑戰以及解決它們的優先機會清單。

作者
JOANNA WIATEREK
Joanna是人工智能安全和獲取中心的共同創始人,專門從事國際人工智能治理協調。她在人工智能利益分享、全球人工智能安全和外援方面工作,熱衷於促進有意義和包容的人工智能未來。

在當今這個快速變化的技術環境中,對人工智能利益分享的討論顯得尤為重要。這不僅僅是一個技術話題,更是一個涉及全球公平和正義的政治話題。全球大多數國家在這一過程中的參與和發聲至關重要,因為這關乎未來技術的發展是否能夠惠及更廣泛的社會群體,而不僅是少數發達國家和企業的利益。如何平衡技術進步與社會公平,將是未來人工智能治理的關鍵挑戰。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon