Vitalik Buterin提出「軟性暫停」計劃應對潛在危險的人工智能
以太坊共同創辦人Vitalik Buterin表示,若出現可能危害人類的超智能人工智能,暫時「減少」全球可用計算能力或許是一個「為人類爭取更多時間」的辦法。
在他於2023年1月5日發表的部落格文章中,Buterin跟進了他在2023年11月的文章,提倡「防禦性加速主義」(defensive accelerationism,簡稱d/acc)的概念。他指出,超智能人工智能可能在五年內就會出現,而結果未必會是正面的。
Buterin提到,若出現這種情況,對工業規模的計算硬件進行「軟性暫停」或許可以減緩人工智能的發展,這可能會將全球可用的計算能力減少高達99%,持續1至2年,以便人類能有更多時間準備。
超智能是一種理論上的人工智能模型,通常被定義為在所有專業領域中比最聰明的人類更為智能。
許多科技高管和研究人員對人工智能表達了擔憂,2023年3月有超過2600人聯署公開信,呼籲停止人工智能的發展,原因是這對社會和人類存在「深遠的風險」。
Buterin指出,他在介紹d/acc的文章中只是做了「模糊的呼籲,要求不要建造危險的超智能」,並希望分享他對於如何應對「人工智能風險高的情況」的看法。
不過,Buterin表示,只有在他「確信我們需要比責任規則更具強制性的措施」時,他才會推動硬件的軟性暫停,這意味著那些使用、部署或開發人工智能的人可能會因模型造成的損害而被起訴。
他提到,對於硬件暫停的提議包括尋找人工智能芯片的位置並要求其註冊,但他建議工業規模的人工智能硬件可以安裝一個芯片,該芯片只有在每週獲得三個主要國際機構的簽名後才能繼續運行。
Buterin寫道:「這些簽名將是設備獨立的(如果需要,我們甚至可以要求零知識證明它們已在區塊鏈上發布),所以這將是全有或全無的情況。沒有實際的方法可以授權一個設備繼續運行而不授權所有其他設備。」
Buterin支持的d/acc理念提倡對技術發展採取謹慎的態度,與推動無限制和無約束技術變革的有效加速主義(e/acc)形成對比。
評論
Buterin的提議引發了對人工智能發展的深刻反思。在當前科技迅猛發展的背景下,我們必須認識到,無限制的技術進步可能會帶來不可逆轉的後果。這種「軟性暫停」的概念,雖然聽起來似乎是一種保護措施,但實際上卻可能引發更多的爭論和分歧。如何平衡技術創新與人類安全之間的矛盾,將是未來科技發展中不可避免的挑戰。
在全球各地對人工智能的討論日益增多的情況下,Buterin的呼籲不僅僅是對技術界的警醒,也應該引起政策制定者的重視。面對潛在的風險,我們需要建立一個更加健全的監管框架,以確保技術的發展能夠在安全的範疇內進行。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。