
你可以信任AI搜索嗎?新研究揭示驚人真相
AI驅動的搜索引擎承諾會徹底改變我們獲取資訊的方式,但最新的研究顯示,當涉及正確引用新聞來源時,它們存在根本性缺陷。哥倫比亞新聞評論的Tow Center for Digital Journalism的研究人員發現,生成式AI搜索工具不僅虛構引用,還削弱了原始出版商的流量,這對新聞業和公眾對新聞的信任帶來嚴重影響。
研究調查員Klaudia Jaźwińska和Aisvarya Chandrasekar共同撰寫了一篇於三月初發表在CJR的文章,總結了他們的見解。為了公平評估八種大型語言模型,他們將來自20家出版商的10篇文章摘錄輸入每個AI搜索模型。隨後,他們手動評估了1600個查詢結果,以評估每個LLM搜索在以下數據提取方面的表現:
– 正確命名文章的出版商
– 確定摘錄所提取的正確文章
– 準確引用文章的URL
根據不同可能結果的組合,每個結果都使用以下評分標準進行評價。
結果被整理到各自的LLM中,生成的視覺圖表顯示出更多的紅色和粉色,而非綠色陰影,顯示出對不準確性的困惑性偏見。根據下面的圖表,Perplexity和Perplexity Pro返回的結果最為準確,而Grok模型和Gemini則似乎難以返回正確答案。
AI搜索引擎——更自信,卻不準確
其中一個最令人驚訝的發現是,所評估的AI搜索工具相對容易生成虛假結果,而不是承認無法找到正確的信息。
正如調查員在他們的聯合電子郵件回覆中所解釋的那樣:“聊天機器人通常不善於拒絕回答他們無法準確回答的問題,而是提供錯誤或推測性的答案。生成式搜索工具經常虛構鏈接並引用已被改編和複製的文章。”
這樣的生成式AI輸出容易誤導用戶,並創造出一種可信度的錯覺——尤其是當信息完全是捏造的時候。
更令人震驚的是,各種AI聊天機器人的付費版本——基本上是高級版本——表現得比其免費版更差。
“高級聊天機器人提供的錯誤答案的自信程度高於其免費版本,”研究人員指出。
這引發了對AI搜索引擎可靠性的嚴重質疑,特別是對於那些假設支付服務費用就能獲得更高準確性和可信度的用戶而言。
當涉及AI驅動的搜索時,研究結果表明,你並不會得到你所支付的價值。
AI搜索——虛構的鏈接和缺乏透明度
除了事實錯誤外,生成式AI搜索工具在引用方面也面臨困難。研究發現,這些服務經常虛構鏈接,或者引用已發表的文章副本,而不是直接鏈接到原始來源頁面。
研究人員指出,這種技術趨勢不僅模糊了信息的來源,還減少了原始出版商的流量。隨著時間的推移,對頁面流量的抑制可能會損害獨特的頁面訪問量、訂閱註冊、廣告收入和出版物的相關性。
研究還強調了一個令人擔憂的趨勢——所有AI搜索引擎在生成回應時整體缺乏透明度。
“沒有任何聊天機器人清楚地說明他們可以或不能訪問哪些內容來回答問題;他們都展現出一種可信度的錯覺,即使他們的答案不準確,”作者寫道。
尋求AI搜索提供者的答案
鑒於這些發現的關鍵性,研究人員試圖聯繫他們研究中涉及的AI搜索工具背後的公司。然而,回應的情況不一。
“我們聯繫了報告中所有的AI公司。只有OpenAI和Microsoft回應了,雖然他們承認了我們的詢問,但都沒有針對我們提出的具體發現或擔憂進行回應。”
這些問題不僅僅是學術性的——它們對新聞業和公眾獲取可靠信息的能力產生了實際影響。AI生成的摘要剝奪了關鍵的上下文,同時未能給予作者和出版商適當的信譽。這可能直接影響依賴網站流量獲得收入的新聞機構。
“生成工具在未提供鏈接或信譽的情況下重新包裝內容,切斷了原始出版商的流量,影響了他們的可見性和收入,”研究人員回應道。
除了財務影響外,AI工具所產生的虛假引用和不準確的歸屬對書面內容的信任構成了重大威脅。如果用戶無法驗證來源,或AI搜索引擎錯誤地表達信息,則虛假信息將更難以對抗。
“當AI工具錯誤歸屬或虛構引用時,這會削弱對技術及其所引用的新聞的信任。它也增加了虛假信息的風險,因為這些工具即使錯誤也聽起來很權威,”Jaźwińska和Chandrasekar表示。
AI搜索需要改變的地方
這項研究強調了AI開發者迫切需要提高透明度、引用準確性以及對錯誤信息擔憂的響應能力。若缺乏適當的問責制,AI驅動的搜索引擎將有可能進一步侵蝕對書面內容和新聞的信任,同時促進不準確或誤導性內容的傳播。
在此之前,用戶應謹慎對待AI生成的搜索結果,獨立驗證來源,並認識到這些工具遠非完美。如果AI搜索希望成為可靠的信息入口,它必須首先學會新聞學的基本規則——準確獲得事實並給予應有的信譽。
這項研究不僅揭示了AI搜索技術的不足,還提醒我們在面對快速發展的技術時,保持批判性的思維至關重要。隨著AI工具的普及,新聞業和公眾的信任面臨著前所未有的挑戰。如何在這場技術革命中保持信息的準確性和透明度,將是未來我們必須克服的重要課題。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。