超過800位公眾人物,包括蘋果聯合創辦人Steve Wozniak及維珍集團創辦人Richard Branson,呼籲禁止發展AI「超級智能」
一群包括人工智能及科技界專家的知名人士,近日公開呼籲停止研發「超級智能」(superintelligence)——一種超越人類智慧的假想AI形式。
超過800人,包括維珍集團創辦人Richard Branson及蘋果聯合創辦人Steve Wozniak,在星期三聯署的一份聲明中,呼籲暫停發展超級智能。
簽署名單中,尤為引人注目的是多位AI先驅,包括被譽為現代人工智能「教父」的科學家Yoshua Bengio及Geoff Hinton,還有著名AI安全研究員、加州大學柏克萊分校的Stuart Russell亦在其中。
「超級智能」已成為AI界的熱詞,隨著從xAI到OpenAI等公司競相推出更先進的大型語言模型(LLM),Meta更將其LLM部門命名為「Meta超級智能實驗室」。
但聲明簽署者警告,超級智能的出現引發一連串憂慮,涵蓋人類經濟被取代及失去自主權、自由與公民權利的喪失、尊嚴與控制權的削弱,甚至牽涉國家安全風險及人類可能滅絕的威脅。
聲明呼籲,在獲得強烈公眾支持及廣泛科學共識,確認能安全且可控地發展超級智能之前,應禁止相關技術的研發。
除了多位AI專家外,簽署者還來自學術界、媒體、宗教界及前政治人物等多方面人士。
其中包括前美國參謀長聯席會議主席Mike Mullen,以及英國皇室成員梅根·馬克爾(Meghan Markle)。此外,美國前總統特朗普的知名媒體盟友Steve Bannon及Glen Beck亦有簽名支持。
—
編輯評論與深入分析
這份由逾800名跨界名人及專家聯署的聲明,凸顯了當前AI技術迅速發展所帶來的深刻社會焦慮與倫理挑戰。當中不乏AI界的重量級人物,如Bengio、Hinton及Russell,他們的參與為此呼籲增添了極高的專業分量和說服力。這反映出,即使是直接參與塑造現代AI發展的「教父」們,也對AI可能失控及其後果感到憂慮。
超級智能不再是科幻小說中的概念,而是現實中科技巨頭爭相競逐的前沿目標。Meta將LLM部門命名為「超級智能實驗室」,正說明了業界對此技術的期待與野心。然而,這種追求同時帶來潛在風險:經濟結構的劇變、個人自由的削弱、社會控制的加強,以及安全威脅甚至人類存續的問題。
聲明強調必須取得公眾共識和科學界的全面同意,才能繼續推動超級智能的發展,這一立場值得支持。因為科技的風險管理需要跨界合作和透明監管,單靠企業或少數專家無法獨自承擔。這也提醒我們,AI發展不應該只以技術突破為導向,而應該深思其社會影響,確保科技進步與人類價值同步。
此外,聲明中多元背景的簽署者陣容,從科技界到宗教界、政治界乃至皇室,顯示AI議題已不再是技術專家獨有的話題,而是全球社會的共同關注。這種跨界合作對推動合理監管和建立全球共識至關重要。
總括而言,這份聲明不僅是對超級智能風險的警示,更是一個呼籲——科技發展必須謹慎而負責,不能盲目追求速度與規模,而忽略了人類社會的根本利益。未來AI的發展路徑,應該是科技與倫理並重,促進人類福祉而非威脅其存續。香港社會及全球公眾都應密切關注這場關乎未來的科技競賽,積極參與討論和監督,確保科技真正成為造福人類的力量。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
