搜尋引擎推廣科學種族主義危機

Ai

Google、Microsoft及Perplexity在搜尋結果中推廣科學種族主義

由人工智能驅動的搜尋引擎,如Google、Microsoft及Perplexity,正在推廣已被廣泛駁斥的種族科學研究,宣揚白人基因上優於其他種族的觀點。

英國反種族主義組織Hope Not Hate的研究員Patrik Hermansson正在調查重新興起的種族科學運動。他需要查找更多有關一個被駁斥的數據集的資料,該數據集聲稱智商分數可以用來證明白人種族的優越性。

Hermansson正在調查由美國科技億萬富翁Andrew Conru資助的種族科學公司Human Diversity Foundation。該組織成立於2022年,是由1937年成立的Pioneer Fund的繼承者,後者由美國納粹同情者成立,旨在推廣“種族改善”和“種族現實主義”。

當Hermansson在Google上搜尋不同國家的智商時,他發現Google的人工智能工具給他提供了一個明確的答案,例如巴基斯坦的智商是80,塞拉利昂的智商是45.07,肯尼亞的智商是75.2。這些數字直接來自他試圖駁斥的研究,該研究由Richard Lynn發表,Lynn曾是Pioneer Fund的主席。

WIRED的調查證實了Hermansson的發現,並發現其他人工智能搜索引擎如Microsoft的Copilot和Perplexity也在引用Lynn的研究。專家擔心,這些研究的推廣可能會幫助激進化其他人。

Brunel University London的Rebecca Sear指出,這種“統計數據”的不加質疑使用是極其有問題的。Lynn的研究曾被2022年在紐約布法羅進行大規模槍擊的白人至上主義者引用。

Google的人工智能概述工具在今年早些時候推出,旨在為在線世界提供人工智能生成的摘要。這些工具從互聯網上提取信息,並在不需要點擊鏈接的情況下為用戶提供答案。然而,這些概述並不總是立即顯示信息的來源。

在智商結果的情況下,Google的系統未能如預期運作,並正在尋求改進的方法。Google表示,這些概述違反了公司的政策,已被移除。

不僅是Google,其他AI驅動的在線搜索服務也推廣這些危險理論。Perplexity和Microsoft的Copilot也顯示了類似的結果,引用了Lynn的數據。

Sear指出,Lynn的數據庫的科學基礎質量極差,難以相信該數據庫不是欺詐行為。批評者指出,國家智商測試的樣本質量很差,且測試本身通常為西方受眾設計,存在偏見。

Lynn的數據多次被極右和種族主義團體用來支持白人優越的主張。這些數據也被轉化為全球地圖,顯示撒哈拉以南非洲國家與西方國家相比的智商。

批評者認為,不僅是AI系統的錯,學術界過去對Lynn的工作缺乏批判性思考也是問題所在。

評論與見解

這篇文章揭示了一個嚴重的問題,即人工智能技術在未經審查的情況下,可能會放大和傳播錯誤信息,尤其是當這些信息涉及到種族主義和偏見時。人工智能的設計者和使用者需要對其輸出結果的來源和質量保持高度警惕。這也提醒我們,科技公司在開發和部署AI工具時,必須有更嚴格的審查和監控機制,以防止不當信息的傳播。

此外,學術界也有責任審視和質疑那些長期以來被引用但缺乏科學依據的研究。這不僅僅是科技的問題,而是整個社會如何對待和使用知識的問題。建立一個更負責任和透明的知識生態系統,是我們需要共同努力的方向。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *