🎬 YouTube Premium 家庭 Plan成員一位 只需
HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
阻礙人工智能發展的偏見
人工智能(AI)是靠數據訓練出來的。它會處理數十億字的人類文本、無數圖片,還有用戶提出的千奇百怪問題。它會學習大部分時間用主動語態寫作,句子長度保持在200個字元以下。它會知道狗有四條腿,太陽通常是黃色的。甚至會知道加拿大安大略省的Lorraine Woodward想了解如何防止耳垢積聚。
但大部分輸入AI的數據都是人類創作的——人類的藝術、人類的文字、人類的指令。因此,AI必然繼承了人類智慧的偏見和成見。舉例來說,關於AI「種族歧視」和「性別歧視」的討論已經不少。
比如,我們可能會讓AI畫一幅「醫生」的圖片。
AI從它的圖庫中選擇,80%的醫生形象是白人、男性和灰髮。它會創造出用戶最可能期望見到的「醫生」形象。這算不算種族主義和性別歧視?確實會助長這些偏見,但這並非AI本身的錯,而是我們的錯。
這星期,在Mini Philosophy的訪談中,我與人類學家Christine Webb探討了「人類例外主義」——即「相信人類是宇宙中最優越或最重要的存在」——這種思想如何滲透到科學、倫理,甚至越來越多地影響人工智能。她擔心的,不僅是人工「智能」的局限,還有它可能帶來的危害。
看似無價值的科學其實充滿價值觀
Webb的研究,無論是在她的著作《傲慢的猿》還是其他作品中,都致力於揭露科學和技術中的「人類中心主義」。她指出主流科學實踐中根深蒂固的人類例外主義,塑造了我們研究什麼、如何研究以及得出什麼結論。她和Kristin Andrews、Jonathan Birch合寫的論文中說:「價值觀驅動研究問題、方法選擇、統計解讀和結果框架」,意味著價值觀對經驗知識的影響與數據本身同等重要。
以下有三個例子:
**研究問題的設計**:動物福利科學常問如何在農業系統中提高生產力或「減輕壓力」,而非問動物自己想要什麼環境。常見問題是「什麼樣的籠內設施能減少母雞啄羽行為?」而非「母雞究竟喜歡被關籠還是自由生活?」前者假設並接受了籠養制度的合理性,忽略了動物的真實需求。
**方法論的選擇**:Webb指出,在比較人類與其他靈長類動物認知時,研究者多用人類設計的測試(如觸控屏、謎題、符號),這些測試需要精細的手部動作或對人類器物的熟悉度。結果是猿類在測試中表現較差,從而得出「人類更聰明」的結論。但測試本身偏向人類技能,設計就是為人類贏。
**統計解讀**:統計上的「顯著性」標準(如p < 0.05)用來判斷某個效應是否存在,但這些標準最初是為嚴密控制的實驗室或工業實驗設計。在動物福利研究中,細微的行為變化——如梳理、凝視或社交距離的改變——可能被標記為「不顯著」,儘管它們反映了真實的壓力或偏好。
人工智能只反映人類自己
當我們談論人工智能,實際上是談論人類的人工「智慧」。大型語言模型和機器學習技術都是基於人類數據、以人類指令運作,產生人類般的回應。
AI研究主要關注如何讓系統對人類更有用(更精確、更個性化、更盈利),卻很少考慮它對非人類或生態系統的影響,比如能源消耗、資源開採或長期環境穩定性。這種框架本身就預設了人類中心主義。
我們使用的語言也透露出人類中心主義和擬人化的偏見——把非人類事物想像成像人類一樣思考和行動。例如,研究者常用「幻覺」、「推理」或「對齊」來形容模型,這些都是將人類認知投射到統計系統上的隱喻。這種說法強調了我們的自我形象,而非系統的實際運作。
最明顯的例子是,整個AI領域都集中在打造與人類智能相似的智能,涉及神經網絡、符號推理和目標導向行為。
從苔蘚身上學習
這當然合理,因為我們想要一個人類能互動的產品,想推動人類科技、醫療和進步。但Webb指出,AI研究過度關注人類智能的利益,忽視了「環境破壞、衰退以及我們對環境傲慢的處理方式」這些問題。
在訪談中,Webb提出一個有趣的替代思路,我希望有朝一日能看到它成為科幻短篇故事。那就是想像一種擁有苔蘚智慧的AI。她說:
「Robin Wall Kimmerer在她的著作中多次提到,苔蘚已經存在了大約五億年,而人類只有可憐的二十萬年。如果我們真的關心智慧、良好生活和進化成功,或許應該轉向像苔蘚這樣的生命形式,向它們學習如何解決我們當前面臨的生態問題。
苔蘚的生存方式很驚人,它們不是靠競爭取勝,而是通過創造多樣化、繁榮的環境,讓其他物種共存。它們的存活方式是建立緊密的多物種社區。這是值得我們學習的。」
我們不必放棄整個AI計劃才能理解Webb的論點。如果AI是人類智慧的放大,那麼它同時會放大好與壞。這種權衡將在更大規模發生。當我們談論超越人類的智能,這是否意味著超級破壞、超級病毒和超級災難?因為人類智慧已經做到了這些。如果我們想打造能改變世界的智能,是否應該先納入這個世界的更多成員?
—
評論與啟發
Christine Webb的觀點深刻提醒我們,AI不僅是技術問題,更是一面映照人類價值觀和世界觀的鏡子。人類例外主義在科學和AI領域的根深蒂固,讓我們自以為是地把人類視為宇宙的中心,這不僅扭曲了研究問題,也限制了我們對智慧和生命的理解。
現有的AI開發,無論是數據來源還是目標設定,都深受人類偏見影響,這不僅導致偏見的再生產,更忽略了非人類生命的視角和智慧。Webb提出以苔蘚為榜樣的構想非常新穎且具有啟示性。苔蘚的智慧在於共生與生態韌性,這與當今AI追求的「效率」、「控制」和「目標導向」形成鮮明對比。這種思維跳脫了人類中心框架,促使我們想像一種與自然共生的智慧形態。
對香港和全球社會而言,這提醒我們在推動AI技術發展時,應該更謹慎地反思其背後的價值觀和生態影響。AI不應該只為滿足人類利益而存在,而是應該成為促進整個生態系統和諧共存的工具。這也意味著,AI的設計與應用需要引入多元生命觀、多維價值觀,甚至是跨物種的智慧啟發。
未來的AI或許不應該僅是「超人類智能」,而是「共生智能」,這樣才能避免重蹈人類過去的環境破壞和社會不公。這種轉變不僅是技術挑戰,更是哲學和倫理的挑戰。Webb的觀點為我們提供了一個全新角度,促使我們重新思考科技與自然、人類與非人類之間的關係,值得深思與推廣。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。