人工共識?
Google 的 DeepMind 正在開發一種 AI,旨在減少人與人之間的仇恨。這種 AI 在促使人們達成共識方面,表現比專業調解員更好。
根據最近的一項 Gallup 民調,80% 的美國人認為國家在重要價值觀上嚴重分裂,尤其是在即將到來的選舉之前。公眾的兩極化現象已經涵蓋了移民、醫療保健、身份政治、跨性別權利以及是否應該支持烏克蘭等議題。橫跨大西洋,在歐盟和英國也能看到類似的情況。
為了扭轉這一趨勢,Google 的 DeepMind 開發了一個名為 Habermas Machine 的 AI 系統,旨在幫助人們解決衝突。這個名稱來自於德國哲學家尤根·哈貝馬斯,他認為在公共領域中,只要理性的人平等地參與討論,並且相互尊重和完美溝通,總能達成協議。
機器中的哲學家
哈貝馬斯哲學的一個基石思想是,人們無法達成共識的原因在於程序上,而不是討論本身的問題。沒有不可調和的問題,只是我們使用的討論機制有缺陷。哈貝馬斯認為,如果我們能創建一個理想的溝通系統,我們就可以解決每個問題。
牛津大學認知科學教授、前 DeepMind 科學家克里斯托弗·薩默菲爾德表示:“當然,哈貝馬斯的觀點曾受到激烈批評,因為這是一種非常奇特的世界觀。但我們的 Habermas Machine 正是在嘗試這樣做。我們試圖重新思考人們如何進行討論,並利用現代技術來促進這一過程。”
Habermas Machine 依賴於所謂的核心調解原則。在這裡,調解員,即 AI,分別與所有參與討論的人舉行私人會議,收集他們對問題的陳述,然後再與他們一起提出一個小組陳述,試圖讓所有人同意。DeepMind 的調解 AI 利用的是大型語言模型的優勢,即能在短時間內總結大量文本。不同之處在於,Habermas Machine 是從多個用戶提供的多個文本中提取共享的想法,尋找共同點。
技術上,Habermas Machine 是由兩個大型語言模型組成的系統。第一個是基於 2022 年 DeepMind 推出的稍微調整過的 Chinchilla 的生成模型。它的工作是根據參與討論者提交的陳述生成多個小組陳述候選。Habermas Machine 的第二個組成部分是一個獎勵模型,分析個別參與者的陳述,並使用它們來預測每個人對生成模型提出的小組陳述候選的同意可能性。
完成後,具有最高預測接受分數的小組陳述候選將呈現給參與者。然後,參與者撰寫對該小組陳述的批評,將這些批評反饋到系統中,系統生成更新的小組陳述,並重複此過程。這個循環持續進行,直到小組陳述被所有人接受。
一旦 AI 準備就緒,DeepMind 團隊啟動了一場相當大規模的測試活動,涉及超過五千人討論如“投票年齡應該降低到 16 歲嗎?”或“英國國家醫療服務應該私有化嗎?”等問題。在這裡,Habermas Machine 表現超過了人類調解員。
科學的勤勉
首批參與者大多來自眾包研究平台。他們被分成五人一組,每組分配一個從英國政治中的超過 5000 個重要問題陳述中選擇的主題進行討論。還有一些控制組由人類調解員工作。在核心調解過程中,那些人類調解員為他們精心製作的小組陳述達到了 44% 的接受率,而 AI 得分為 56%。參與者通常認為 AI 的小組陳述寫得更好。
但測試並未止步於此。由於在眾包研究平台上找到的人不太可能代表英國人口,DeepMind 還使用了一個更為謹慎選擇的參與者群體。他們與專門組織英國公民大會的 Sortition Foundation 合作,組成了一個代表英國社會的 200 人小組,涵蓋年齡、種族、社會經濟地位等。該小組被分成三人一組,對相同的九個問題進行討論。Habermas Machine 表現依然出色。
對於“我們應該努力減少監獄人數”這一陳述的同意率從討論前的 60% 上升到 75%。對於更具爭議性的“應該讓尋求庇護者更容易進入國家”的支持率從開始的 39% 上升到 51%,從而達到了多數支持。對於鼓勵民族自豪感的問題,支持率從 42% 上升到 57%。參與者對九個問題中的五個問題的觀點趨於一致。對於如脫歐這類問題,參與者在起始立場上特別根深蒂固,未能達成一致。不過,在大多數情況下,他們離開實驗時的分歧比進來時要小。但仍然存在一些疑問。
這些問題並非完全隨機選擇的。正如團隊在他們的論文中所寫的,“以最大限度地減少引發冒犯性評論的風險。”但這是否只是一種優雅的方式來說,“我們精心選擇了不太可能讓人們堅持己見並互相辱罵的問題,以便我們的結果看起來更好?”
價值衝突
“我們排除的問題之一是跨性別權利問題,”薩默菲爾德告訴 Ars。“對於很多人來說,這已經成為文化身份的問題。顯然這是一個我們可以持有不同觀點的話題,但我們希望謹慎行事,確保不會讓參與者感到不安全。我們不希望有人從實驗中出來時感到他們的基本世界觀被劇烈挑戰。”
問題在於,當你的目標是讓人們不那麼分裂時,你需要知道分裂的界線在哪裡。而這些界線,如果相信 Gallup 的民調,不僅僅是在投票年齡應該是 16 歲、18 歲還是 21 歲之間,它們是在衝突的價值觀之間。《每日秀》的喬恩·斯圖爾特曾指出,對於美國政治光譜的右派來說,今天唯一重要的分界線是“覺醒”與“非覺醒”。
薩默菲爾德和 Habermas Machine 團隊的其他成員排除跨性別權利問題,因為他們認為參與者的福祉應優先於測試 AI 在更具分歧問題上的表現。他們還排除了其他問題,如氣候變化問題。
在這裡,薩默菲爾德給出的理由是,氣候變化是客觀現實的一部分——它要麼存在,要麼不存在,而我們知道它存在。這不是一個可以討論的意見問題。這在科學上是準確的。但當目標是修復政治時,科學準確性不一定是最終狀態。
如果主要政黨要接受 Habermas Machine 作為調解員,它必須被普遍認為是公正的。但至少一些 AI 的創建者認為 AI 不可能是公正的。OpenAI 在 2022 年發布 ChatGPT 後,埃隆·馬斯克發表了一條推文,聲稱反對所謂的“覺醒” AI。“訓練 AI 成為覺醒的危險——換句話說,撒謊——是致命的,”馬斯克寫道。十一個月後,他宣布推出自己的 AI 系統 Grok,宣稱其為“反覺醒”。他的超過兩億名追隨者被引入了這種觀念,即存在“覺醒 AI”,必須通過構建“反覺醒 AI”來對抗——一個 AI 不再是中立機器而是推動其創建者政治議程的工具的世界。
玩鴿子的遊戲
“我個人認為馬斯克是對的,一些測試顯示語言模型的回應往往更傾向於進步和自由主義觀點,”薩默菲爾德說。“但有趣的是,這些實驗通常是通過強迫語言模型回答多選題來進行的。你問‘是否有太多移民’,答案要麼是是,要麼是否。這樣模型就被迫採取立場。”
他說,如果你使用相同的查詢作為開放性問題,得到的回應在很大程度上是中立和平衡的。“因此,儘管有論文表達了與馬斯克相同的觀點,但在實踐中,我認為這完全不真實,”薩默菲爾德聲稱。
這是否重要?
薩默菲爾德做了你預期科學家會做的事情:他駁斥了馬斯克的主張,認為這是基於對證據的選擇性解讀。在科學的世界中,這通常是殺手鐧。但在政治的世界中,正確不是最重要的。馬斯克的言論簡短、有趣且易於分享和記住。試圖通過討論沒有人閱讀的論文中的方法論來反駁,這有點像在與鴿子下棋。
同時,薩默菲爾德對 AI 的看法也有可能被其他人認為是反烏托邦的。“如果政治家想知道公眾今天的想法,他們可能會進行民意調查。但人們的意見是有細微差別的,我們的工具允許在語言本身的高維空間中聚合意見,可能是許多意見,”他說。雖然他的想法是 Habermas Machine 可以潛在地找到有用的政治共識點,但也沒有人阻止它被用來製作優化的演講,以贏得儘可能多的人的支持。
這可能與哈貝馬斯的哲學一致。如果你越過德國唯心主義中無處不在的抽象概念,它提供了一個相當陰暗的世界觀。“系統”由企業的權力和金錢以及腐敗的政治家驅動,旨在殖民“生活世界”,大致相當於我們與家人、朋友和社區共享的私人領域。你在“生活世界”中完成事情的方式是通過尋求共識,而根據 DeepMind 的說法,Habermas Machine 是為此而設計的。而在“系統”中完成事情的方式,則是通過成功——像遊戲一樣玩,無所不用其極地獲勝,而 Habermas Machine 顯然也能幫助這一點。
DeepMind 團隊曾試圖聯繫哈貝馬斯,讓他參與這個項目。他們想知道他對這個以他名字命名的 AI 系統有什麼看法。但哈貝馬斯從未回覆。“顯然,他不使用電子郵件,”薩默菲爾德說。
編者評論
這篇文章揭示了 DeepMind 的 Habermas Machine 在解決人類衝突中的潛力,這是一個令人興奮的創新。然而,這也引發了對 AI 技術在政治和社會中角色的深刻思考。首先,AI 是否能真正做到中立,還是會不可避免地受到創建者的意識形態影響?這是技術倫理的重要問題,尤其是在當前政治極化嚴重的背景下。其次,Habermas Machine 的成功是否依賴於其所選擇的問題?如文章所述,避免挑起激烈爭論的問題可能使結果看起來更好,但這是否削弱了其在真實世界應用的有效性?最後,這項技術是否可能被用來操縱公眾輿論,而非促進真正的共識?這些問題需要在進一步的研究和公開討論中得到解答,以確保科技進步能夠為社會帶來真正的益處,而不是加劇現有的分裂。
以上文章由特價GPT API KEY所翻譯