AI超智能最大挑戰:2000年古辯論啟示錄

Ai

兩千年前嘅爭辯揭示AI最大嘅難題

矽谷而家急住打造一個「神」——但連乜嘢先至係一個好嘅神都未搞清楚。

喺ChatGPT出現差唔多兩千年前,有兩位名叫Eliezer同Yoshua嘅古代智者展開咗一場爭辯,呢場爭辯對AI未來有好多啟發。唔係講Eliezer Yudkowsky(最近出咗本暢銷書話AI會殺晒人),亦唔係講被稱為「AI教父」、全球引用率最高嘅科學家Yoshua Bengio,係講公元一世紀嘅拉比Eliezer同拉比Yoshua。

根據《塔木德》一個著名故事,拉比Eliezer堅持佢對一個法律問題嘅見解啱,但其他拉比唔同意。Eliezer於是施展咗一連串神蹟,想證明上帝支持佢:令一棵角豆樹自動連根拔起走開,令溪流倒流,甚至令學堂牆壁開始倒塌。最後佢話:「如果我啱,天上會有聲音證明!」果然,天聲響起支持Eliezer,但其他拉比仍然唔受影響。

呢個故事點解重要?佢反映出一個核心問題:即使有超自然嘅證據,集體智慧同倫理判斷都唔可以被單一權威或奇蹟完全左右。呢個哲學層面嘅思考,正係今日AI發展中最緊要嘅問題——點樣確保AI嘅目標同價值觀同人類社會相符,而唔係單純靠技術或權威去「定義」啱錯。

評論與啟示

呢篇文章用兩千年前嘅拉比爭辯故事,為我哋揭示咗AI最大挑戰嘅根源——「AI對齊」問題(AI alignment),即係點樣令AI嘅行為同人類嘅倫理價值觀保持一致。矽谷而家好似急於造一個全能AI,卻未必真正理解「好嘅AI」應該係點。就好似拉比Eliezer嘅神蹟未能說服其他拉比,單靠技術嘅強大或者單向嘅權威證明,無法取代集體嘅理性判斷同倫理討論。

呢個角度提醒我哋,AI發展唔應該淨係追求技術上嘅「強大」或「超智能」,而係要同時建立一個多元、開放嘅倫理審視框架,容許唔同觀點對話與制衡。否則,就算AI有再強嘅能力,佢嘅「目標」如果同人類社會嘅整體福祉唔一致,最終都係一場災難。

此外,現代AI研究者如Eliezer Yudkowsky同Yoshua Bengio亦都認識到呢個問題,並嘗試從不同角度探討如何做到AI alignment。呢個古老故事幫我哋反思,AI嘅「神蹟」唔應該只係技術嘅突破,更應該係倫理同社會共識嘅成果。

總括而言,AI嘅未來唔單止係科技問題,更係哲學同倫理嘅挑戰。只有尊重多元意見、強化集體智慧,先可以避免「造神」變成「造魔」,真正造福人類社會。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗