在聖地牙哥的一間細小房間內,黑皮夾克男子教我如何拯救世界免於被人工智能毀滅
上星期,在聖地牙哥一間細小的房間內,一位穿著黑色皮夾克的男子向我解釋如何拯救世界免於被人工智能破壞。這人是Max Tegmark,人工智能安全運動中的知名人物。他相信「通用人工智能」(AGI)可能會導致人類生命的終結。當時我正參加NeurIPS會議——全球最大型的人工智能研究會議之一。Tegmark邀請我和另外五位記者參加一場簡報會,主題是他將於翌日發布的人工智能安全指數。結果顯示,沒有任何公司獲得超過C+的評分。
科技超智慧威脅:科幻還是現實?
超智慧技術的威脅聽來像科幻小說,但近年來已成為嚴肅討論的話題。即使定義不清晰——連OpenAI CEO Sam Altman都稱AGI為「定義模糊的詞彙」——強大人工智能內含對人類的潛在威脅,已獲得不少文化評論家的認同。
誠然,生成式人工智能是一項強大技術,已對我們的工作和文化產生巨大影響。但超智慧卻成為AI產業推廣的多個有爭議敘事之一,其他還包括AI像人類一樣學習、擁有「突現」能力、「推理模型」實際上能推理,以及技術最終會自我提升等說法。
NeurIPS:AI產業的縮影與矛盾
我來到NeurIPS,這個在聖地牙哥海濱會議中心舉辦的盛會,部分原因是想了解這些敘事在AI產業內部究竟有多受重視。AGI的理想是否指導着研究和產品開發?我問Tegmark,他說主要AI公司真誠地在開發AGI,但他的說法令人質疑:「我認識他們創辦人,他們公開說過。」
過去十年,隨著AI引發的恐懼與興奮,NeurIPS的參加人數暴增,從2015年的約3850人增至今年的24500人。會議中心三大主會場面積猶如多個飛艇機庫,演講吸引數千觀眾。傳奇電腦科學家Rich Sutton在談超智慧時宣稱:「我確實覺得我們正踏上一場尋找聖杯的旅程。」
會場內,企業贊助商設置展位,推廣成就及研發願景。既有Google、Meta、Apple、Amazon、Microsoft、字節跳動和Tesla等耳熟能詳的公司,也有Runpod、Poolside、Ollama等較少人知的。Lambda則自稱「超智慧雲」。OpenAI、Anthropic、xAI等幾家大牌缺席展覽廳,受訪研究人員一致認為這些企業的品牌效應已高到設展位無意義。
AI人才爭奪戰和奢華派對
NeurIPS成為AI人才爭奪戰的主戰場。大量招聘活動在會議中心外、聖地牙哥市中心半秘密邀請制的活動中舉行,展現產業日益奢華的面貌。在Laude Institute主辦的休息室,一名研究生告訴我多家AI公司的起薪達百萬至一百五十萬美元,其中大部分是股權。這休息室裝潢如音樂節VIP區,實際位於Hard Rock Hotel頂層。
最受矚目是加拿大公司Cohere的派對,該公司專注大型語言模型,現正被包括《大西洋月刊》在內的新聞出版商控告版權及商標侵權。派對在退役航空母艦USS Midway上舉行,該艦曾參與沙漠風暴行動,停泊於聖地牙哥港。活動標語是「慶祝AI連結世界的潛力」。
我借助一位研究員朋友的幫助,獲邀出席阿聯酋總統命名的全球首間AI大學——穆罕默德·本·扎耶德人工智能大學(MBZUAI)主辦的聯誼活動。該校今年在矽谷成立基礎模型研究所。活動在牛排館舉行,自助餐有生蠔、帝王蝦、醃魚等美食。樓上Meta亦有派對。據傳樓下不少參加者是Meta員工,意圖被基礎模型研究所挖角,因後者待遇更優渥。
AGI研究冷落與產業現實的矛盾
NeurIPS共展出5630篇海報論文,只有兩篇在標題提及AGI。一項非正式調查指115名研究者中逾四分之一不知AGI代表什麼。儘管如此,AGI這一概念及其聲望似乎部分促成了豪華自助餐的出現。這些豪華設施,顯然非聊天機械人盈利所能負擔。據報OpenAI預計虧損將持續到2030年。產業還能供應這些奢華盛宴多久?當AI產業停止支撐經濟,會有何影響?
對超智慧的懷疑與現實問題
社會學家兼作家Zeynep Tufekci在主題演講中警告研究者,超智慧的想像阻礙他們理解所建技術。她題為「我們是不是對AI有錯誤的噩夢?」的演說提及聊天機械人帶來的多種危害,包括成癮問題和破壞真相建立方式。演講後首名提問者略帶不耐煩地反駁:「你有跟蹤最新研究嗎?這些正是我們想解決的問題,我們知道這些擔憂。」Tufekci回應:「我沒看到這些討論,我只見到大家討論大規模失業和人類滅絕。」
這讓我想到,兩者都可能正確:許多AI開發者關注技術最切實的問題,而公眾對AI的討論——包括頂尖開發者間的對話——卻主要被想像危機主導。NeurIPS這名字本身就帶有矛盾:NeurIPS是「神經信息處理系統」的縮寫,但人工神經網絡源自1940年代兩位學者對生物神經元複雜性嚴重低估、過度類比數碼電腦的錯誤假設。AI文化核心之一,是對計算機即心智的迷戀。Anthropic和OpenAI曾發表報告,分別用「不忠實」和「不誠實」形容聊天機械人。在AI話語中,科幻往往勝過科學。
AI教父Bengio的擔憂與局限
在Hard Rock Hotel頂樓,我觀看了AI三位「教父」之一Yoshua Bengio的訪談。他是使ChatGPT成為可能的算法共同發明者,最近創立非營利組織LawZero,推動「設計安全」的AI發展。該名稱源自阿西莫夫小說中的機器人法則,禁止機器人傷害人類。Bengio擔心未來AI可能欺騙創造者,「擁有強大AI的人可能會濫用它以政治利益影響輿論」。
我觀察四周,沒見其他人對這種脫節感有明顯反應。Bengio未提及假影片如何已影響公共話語,也未實質回應日益嚴重的聊天機械人心理健康危機,或藝術人文領域的掠奪。對他來說,災難性危害「還有三至十年甚至二十年」,我們還有時間「從技術上解決」。
Bengio在其他場合提及AI的更即時危險,但他此番言論反映了當前技術專家的主流心態:表面上他們在拯救我們,但他們的預言究竟為誰帶來好處?當我與年輕人談論七位數薪酬,目睹產業百萬富翁爭論超智慧危機時,答案似乎很明顯。
編者評論:AI超智慧的迷思與產業現實的鴻溝
這篇報導生動描繪了當代AI產業的矛盾與迷思:一方面是充滿科幻色彩的超智慧恐懼與願景,另一方面是對當前AI技術及其社會影響的忽視與誤解。NeurIPS的規模爆炸和奢華場景,反映了資金和人才競爭的激烈,但真正聚焦於AGI的研究卻寥寥可數,且許多研究者甚至不清楚AGI含義。這說明超智慧更多是產業話語和公眾想像的產物,而非主流技術發展的核心。
此外,報導中Tufekci與Bengio的觀點分別指出了兩個層面的問題:一是過度聚焦未來可能的超智慧災難,忽略當下AI帶來的社會問題和倫理挑戰;二是技術界內部對風險的認知差異與溝通不足。這種「科幻先行,科學跟不上」的局面,可能令政策制定者和公眾難以做出明確判斷和有效監管。
值得注意的是,AI產業的快速擴張和資金充裕,讓許多問題被掩蓋或淡化,產生一種「繁榮假象」。當這波資金潮退去,產業如何持續健康發展,並真正回應社會需求和倫理責任,將是未來的重大挑戰。這也提醒香港乃至全球媒體和監管機構,要警惕技術話語中的誇大與迷思,推動更實際、透明且多元的討論,避免被虛幻的「超智慧」故事所蒙蔽。
總之,這篇文章不僅揭示了AI業界對未來的焦慮與矛盾,也提醒我們關注當下技術的實際影響,批判性地審視AI話語背後的權力和利益結構。唯有如此,才能在科技浪潮中找到理性且負責的前行方向。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。