🎬 YouTube Premium 家庭 Plan成員一位 只需
HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
研究顯示:社交媒體或無法擺脫極化回音室的命運
社交媒體現時已經變成一個充斥虛假資訊和仇恨言論的有害平台,這已經不再是秘密。由於缺乏有效監管和執行政策的壓力,這些平台迅速演變成充滿憤怒和分裂的回音室,目的只有一個,就是利用用戶的情緒反應來吸引他們花更多時間停留,從而展示更多廣告賺錢。
阿姆斯特丹大學的研究人員最近進行了一個實驗,結果顯示社交媒體可能注定無法擺脫這種極化的命運。
在一份尚未經同行評審的研究中,助理教授Petter Törnberg和研究助理Maik Larooij利用由OpenAI的GPT-4o大型語言模型驅動的AI聊天機械人,在模擬的社交媒體平台中,測試了六種干預策略,包括切換為按時間順序排列的動態消息、提升多元觀點、隱藏社交數據如追蹤者數量,以及移除帳戶簡介等,目的是避免平台變成極端分化的地獄。
遺憾的是,這些干預措施都未能達到理想的效果,只有部分方法帶來輕微改善。更糟糕的是,正如《Ars Technica》報導,有些措施甚至令情況惡化。例如,按時間順序排列動態雖然減少了注意力的不平等,但同時將極端內容推到頂部。
這個現實令人警醒,與不少公司承諾打造「數碼公共廣場」的理想大相逕庭。正如億萬富翁及社交平台X的擁有者Elon Musk曾形容,希望社交媒體成為一個人人和平共處的場所,但結果卻不盡人意。
無論是否有干預,社交媒體似乎注定成為極端思想滋生的高度分化溫床。
Törnberg在接受《Ars》訪問時質疑:「我們能否找到方法改善社交媒體,真正打造一個能夠實現早期承諾,讓用戶理性討論政治和公共議題的公共空間?」
他承認,利用AI並非「完美解決方案」,因為技術本身存在各種偏見和限制,但AI能更真實地模擬人類行為。
Törnberg解釋,極化不僅源自觸發情緒的內容,這些有害內容還會塑造網絡結構,進一步影響用戶看到的內容,形成惡性循環,導致「一小部分帖子獲得絕大多數關注」,即極度不平等的注意力分配。
在生成式AI興起的時代,這種現象可能會更加嚴重。
「我們已經看到很多利用平台變現的用戶,透過AI生成內容來最大化吸引力。」Törnberg說。「這些內容往往是錯誤訊息和高度極化的資訊,隨著AI模型愈來愈強大,這類內容將佔據主導。」
他坦言,傳統的社交媒體模式恐怕難以在這種情況下繼續存活。
編輯評論:
這項研究揭示了社交媒體平台在極化問題上所面臨的根本困境,令人深思。即使採取了多種策略,社交媒體的「回音室效應」仍難以根除,甚至部分干預措施可能適得其反,反映出問題的複雜性和深層結構性。
當前社交媒體的商業模式本質上依賴用戶的注意力和情緒反應,這種設計天然容易助長極端和分裂內容的擴散。AI雖然有能力模擬人類互動,但在現有結構中,反而可能加劇資訊泡沫和錯誤訊息的傳播。
未來,若要真正改善社交媒體生態,或許需要從根本改變平台的盈利模式和演算法設計,甚至考慮引入更嚴格的監管和透明度。否則,社交媒體將繼續淪為極端思想的溫床,社會的分裂也會因此加劇。
這同時提醒我們,作為用戶,應保持警覺,主動尋求多元資訊來源,避免被算法主導的內容篩選所左右,才能在這個數碼時代保持理性和清醒的思考。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。