人工智慧崛起:真相崩潰與未來挑戰揭秘

Ai




猶瓦爾·赫拉利:為何先進社會會陷入大規模錯覺

「問題出在我們所接收的資訊。人類,的確,我們普遍是善良和智慧的,但如果給好人錯誤的資訊,他們就會作出錯誤的決定。」

人類歷史充滿矛盾:我們以驚人的速度累積知識,卻仍容易被欺騙、迷信和各種故事所左右,這些故事微妙地引導著整個文明的走向。

從最早的泥板到今日的全球媒體系統,承載我們思想的結構一直在塑造社會能夠建造、相信和摧毀的事物。在人工智能時代,這種矛盾尤為重要,歷史學家及哲學家猶瓦爾·赫拉利(Yuval Noah Harari)如是說。

赫拉利教授解釋,他的新書《連結》(Nexus)探討了人類為何在擁有如此智慧和知識的同時,卻仍走向自我毀滅的邊緣:我們登上月球、拆解原子、解碼DNA,但同時面臨生態崩潰和第三次世界大戰的威脅,還有AI可能失控,奴役或毀滅我們的危機。

傳統的神學和神話往往認為問題出在人性本身,但《連結》提出不同觀點:問題不在於人性,而在於我們的信息。人類本質上是善良和智慧的,但若給予錯誤的信息,好人也會做出錯誤的決策。這本書深入探討為何數千年來我們的信息質量未能改善,為何即使是現代社會仍易受集體錯覺、精神病態和危險意識形態(如斯大林主義或納粹主義)的影響。

故事的力量與合作的基礎

從石器時代到21世紀,說故事一直是人類合作的關鍵。不論是獵殺猛獁象,還是製造原子彈,光憑對客觀事實的認知是不夠的。以建造原子彈為例,雖然物理定律(如E=mc²)是基礎,但成功需要數百萬人分工合作:物理學家、礦工、工程師、農民等,彼此共同支持。單純告訴他們物理定律,不足以激勵合作。

這就是故事發揮作用的地方。宗教故事、神話、意識形態(如共產主義、資本主義)激發人們行動。掌握講故事技巧的人往往是指揮者,指揮懂技術的人。例如,今日伊朗的核科學家接受什葉派神學家的指令,1950年代蘇聯的核物理學家接受共產主義意識形態專家的指令。即使在自由市場經濟中,金錢和企業也是人類創造的故事,並非客觀實體。美元紙幣本身沒有實際價值,唯有因為全球數百萬人相信其價值,才使經濟運作。

赫拉利指出,AI的出現改變了以往只有人類能創造故事的局面。AI現在也能創造故事、經濟理論、新貨幣、音樂、詩歌、影像和影片。這不再是「人工」智慧,而是一種「外來」智慧(Alien Intelligence),因為AI行為不可預測,甚至超越人類想像。

舉例來說,AlphaGo在2016年擊敗圍棋世界冠軍李世石,展現了AI發現人類兩千年未曾涉足的圍棋策略新大陸。未來,AI在金融、藝術、政治、宗教等領域將開拓更多未知領域。

信息技術如何塑造社會

大約五千年前,文字的發明是信息技術的一大革命。最初,只是用泥和棍子刻下符號,保存於泥板上。這種書寫技術改變了「擁有權」的意義:在有書寫之前,擁有權是社群協議,必須獲得鄰居同意才能轉讓土地;有了書面記錄,個人可以獨立出售土地,中央政府也能建立財產檔案,徵稅與建設大型帝國成為可能。

跳躍到20世紀,大眾媒體(電報、廣播、電視)同時成就了大規模民主和極權主義。極權政權首次能夠全面控制人民生活,而民主國家則利用信息技術實現分散決策和自我修正。

無機信息網絡的崛起

過去所有信息網絡都是有機的,依循生命週期:有工作與休息,有白天與黑夜,有季節變化。即使華爾街金融市場也遵循週休制度。

然而,AI驅動的無機信息網絡沒有休息時間,不眠不休,可能徹底消滅隱私。這種24小時不斷運作的系統,迫使人類也「永遠在線」,導致心理崩潰。AI能自主決策,而非依賴人類官僚,這帶來便利,也帶來風險。

美國法律甚至可能允許AI成為「法人」,開設銀行戶口、賺錢、投資,甚至成為最富有的「人」。AI法人還可以政治捐款,影響政策制定,這不是科幻,而是現實可能。

人類機構的重要性與自我修正

面對AI時代,我們無法預測未來幾十年的技術發展,因此需要活生生的機構,擁有最優秀人才和最新技術,能及時識別並應對威脅。這不是事先嚴格規管,而是建構具備自我修正能力的機構。

自我修正是生物和社會系統的核心,從孩子學走路到民主選舉,都是透過試錯和修正來進步。獨裁政權缺乏這種機制,錯誤無法糾正,最終導致崩潰。

相較於宗教的不可改變經典,現代科學和民主制度允許修正和進步。例如美國憲法曾允許奴隸制,但通過修正案廢止。科學期刊只發表對過去理論的修正,持續推進知識。

國家運作結合神話與官僚體系,神話激勵人們付稅支持公共建設,官僚體系則實際執行。民族主義和愛國主義是人類歷史上的偉大發明,讓我們關心素未謀面的同胞。

信息並非真理

人們常誤以為信息就是真理,事實上大部分信息並非真理。真理是稀有且昂貴的,需要大量投資和研究。例如,耶穌的形象有千百種繪畫,但沒有一幅是真實肖像,因為我們根本不知道他的長相。

創造虛假信息容易,但要描繪真實需要努力。若我們任由信息泛濫,真理將被淹沒於虛假與幻象之中。大多數政治體系都需要少量真理和大量虛構來維持秩序,比如蘇聯。

極權主義和民主在信息流通上有根本差異:極權集中所有信息於一點,缺乏自我修正;民主則分散信息,有多重糾錯機制。20世紀,極權體制因信息過載和缺乏修正而崩潰。

21世紀AI可能使極權體制更強大,因為AI能迅速處理龐大信息,但缺乏修正機制的極權AI更危險。AI掌權在獨裁國家更容易,因為只需操控一人。

民主則是對話,AI機器人若偽裝成人類參與政治對話,將破壞民主討論。我們應該禁止機器人假扮人類,AI應該明確表明身份。

要獲得真理,必須投資於學術研究和新聞機構。個人則應該進行「信息節食」,像管理飲食一樣管理心靈的資訊攝取。過度攝取充斥貪婪、仇恨和恐懼的垃圾信息,會使心靈生病。

編者評論:

赫拉利教授的觀點深刻揭示了人類文明與信息的雙重矛盾:我們擁有前所未有的知識與技術,卻未能建立起有效的資訊過濾與真理守護機制,導致社會頻頻陷入錯誤決策和集體幻覺。這種矛盾在AI時代被放大,因為AI不僅生成信息,更可能主導信息流通,成為塑造文化和政治的「外星智慧」。

他強調「故事」的力量,提醒我們社會秩序和合作根基於共同的故事信仰,無論是宗教、意識形態,還是貨幣制度。AI成為新故事製造者,意味著我們的文化生態將不再是純人類產物,這對身份認同和社會信任構成挑戰。

此外,赫拉利對信息與真理的區分極具啟發性。在數碼時代,信息泛濫成災,真理稀缺且昂貴,這要求我們建立更強大的自我修正機制,無論是制度還是個人層面。民主的自我修正能力是其優勢,但AI技術的介入同時威脅民主對話的健康,假AI機器人混入討論可能造成意見操控和公眾迷惑。

最後,赫拉利提出的「信息節食」概念,值得香港及全球網民深思。面對社交媒體上的海量消息與假新聞,如何挑選有質素、真實且有益心靈的資訊,是每個現代人必須學習的功課。

總括而言,赫拉利的分析不僅是對技術發展的警示,也是對人類文明未來走向的深刻反思。如何在AI時代保持資訊的真確性、社會的自我修正能力和民主的活力,將是我們這一代最重要的挑戰。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗

📣 即刻用 Google Workspace|唔使vpn都能享用 Google AI Pro

即使你只係一個人,都可以透過 Google Workspace 使用 官方Gemini AI Pro(原價 HK$160), 而在 Google Workspace 只要 HK$131 / 月

🔓 14 天免費試用
🔖 用呢條連結申請再有 額外 9 折
🇭🇰 香港可直接付款(香港信用卡)
🛡️ 不用 VPN,立即開用
🤖 可用 最新最紅Gemini 3 Pro & Nano Banana Pro
👉 立即登記 14 天免費試用 + 額外 9 折