AI 研究大會爆滿 兩萬六千人齊聚聖地牙哥 但專家坦言:最先進AI系統運作原理仍成謎
聖地牙哥 — 過去一星期,來自全球的學者、初創企業創辦人及大型科技公司研究人員齊集陽光普照的聖地牙哥,參加人工智能領域最高規格的NeurIPS(神經信息處理系統)年會。今年是NeurIPS舉辦第39屆,吸引了破紀錄的26,000名參加者,是六年前人數的兩倍。
自1987年創立以來,NeurIPS一直專注於神經網絡的研究,結合計算機科學、神經生物學與物理學的交叉領域。神經網絡原本是學術界的冷門研究,靈感來自人類和動物的認知系統,但隨著AI的崛起,NeurIPS已從科羅拉多州一家酒店的小型會議,擴展到如今佔據整個聖地牙哥會議中心的大型盛會(該中心同時也是著名的Comic-Con動漫展場地)。
儘管會議規模與AI行業一樣迅速增長,並且出現了不少針對極度專門化主題的討論,例如AI創作音樂,但其中最熱門的話題之一,卻是AI領域的基礎問題:最尖端系統究竟如何運作仍是個謎。
幾乎所有頂尖AI研究者及業界CEO都坦言,他們並不完全理解當今AI系統內部的運作機制。這種嘗試去「解讀」模型內部結構的研究,被稱為「可解釋性」(interpretability)。
AI研究者、專注於可解釋性的初創公司Martian共同創辦人Shriyash Upadhyay表示,該領域仍處於初期階段:「大家其實未完全明白這個領域在幹什麼,想法多元且各有目標。」
他比喻說,傳統科學就像是物理學家試圖精確測量電子的特性,但在可解釋性領域,現在的問題是:「電子到底是什麼?電子存在嗎?能被測量嗎?」同理,大家正努力尋找「什麼才算是一個可解釋的AI系統?」。Martian趁此機會在NeurIPS推出了一項百萬美元獎金,鼓勵更多研究投入可解釋性。
會議期間,各大AI巨頭的可解釋性團隊展現出不同策略。谷歌的團隊宣布將不再嘗試全面理解模型的每個部分,而改為注重實際影響的務實方法。谷歌可解釋性領導人Neel Nanda指出,「幾乎完全逆向工程的宏大目標仍遙不可及」,且團隊希望在約十年內見到成果,因此轉變方向。
相反,OpenAI的可解釋性負責人Leo Gao則在NeurIPS表明將加倍努力,追求更深入、雄心勃勃的可解釋性研究,力求完全理解神經網絡的運作。
AI研究者、非牟利組織FAR.AI共同創辦人Adam Gleave則對完全理解模型行為持懷疑態度,認為深度學習模型無簡單解釋,無法用人類理解的方式逆向工程大型神經網絡。但他仍對研究者在多層面理解模型行為取得進展抱有希望,認為這將幫助打造更可靠可信的系統。
斯坦福大學可信AI研究實驗室負責人Sanmi Koyejo指出,目前評估AI能力的工具不足以衡量模型的整體智能和推理能力,現有測試多針對具體任務設計,未能反映更複雜的行為,因此需要投入更多資源研發新的評估方法。
在專門應用於科學領域的AI模型方面,卡內基梅隆大學教授及生物AI公司GenBio AI創辦人Ziv Bar-Joseph坦言,生物學AI系統的評估仍處於極早期階段,甚至連評估標準本身都尚未確立。
儘管對AI內部運作的理解和評估仍存在挑戰,研究人員看到AI在推動科學研究方面的迅速進展。Martian的Upadhyay指出,人類造橋早於牛頓發現物理定律,說明完全理解AI系統並非推動變革的必要條件。
NeurIPS近年來設立專門分會,聚焦利用AI推動科學發現。哈佛大學研究生Ada Fang表示,今年分會十分成功,強調雖然AI應用於生物、材料、化學和物理等不同領域,但其面臨的挑戰和核心理念高度共通。該會議旨在讓研究者分享突破及討論AI在科學上的應用範圍與限制。
英屬哥倫比亞大學計算機科學教授、AI科學研究先驅Jeff Clune在座談中表示,AI在科學領域的興趣和需求激增,NeurIPS期間收到了大量咨詢和合作邀請。他感慨十年前,這個話題還是冷門,現在則成為全球關注的焦點,令人感到振奮。
—
編輯評論:AI「黑盒」之謎與科學突破的兩難
這場擁擠爆滿的NeurIPS會議,反映出AI技術的蓬勃發展與業界對其內部運作理解的巨大鴻溝。即使是頂尖專家和企業,也無法完全解釋當代最先進模型的決策過程,這種「黑盒」問題成為AI安全、倫理與責任落實的核心挑戰。
谷歌選擇務實路線,聚焦短期可見的影響,顯示出業界對理想主義的可解釋性追求已有反思。相對而言,OpenAI堅持深度理解,展現出科學探索的雄心壯志。兩種路徑的分歧,正是當前AI發展的縮影:是追求理論完美,還是先求實用落地?
此外,現有的測試和評估工具明顯落後於AI系統的複雜度,這不僅阻礙了對AI能力的準確判斷,也增加了對其潛在風險的忽視。未來投資在更全面、合理的評估方法至關重要,尤其是AI在科學研究中的應用,若無良好評估標準,可能影響科研成果的可靠性。
最後,AI在推動科學發現上的突破令人樂觀,正如Upadhyay所言,實際應用不必等到完全理解才可展開。這種「先行後解」的態度,或許是現階段最務實的策略,但長遠來看,持續追求可解釋性仍是確保AI安全與負責任發展的基石。
對香港及全球讀者而言,這揭示了AI技術的雙面性:它既是未來創新的強大推手,也是充滿未知風險的黑盒。如何在推進應用與完善理解中取得平衡,是科技界乃至政策制定者必須共同面對的課題。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放