科學家對AI信心急跌六成!

Ai




科學家對人工智能信心大幅下跌

科學家天生帶有懷疑精神,這是他們的工作特性。不過,當談到人工智能(AI)時,研究人員對這項技術的信任卻日益減弱。

學術出版商Wiley在其2025年關於AI對科研影響的報告預覽中,公布了對AI態度的初步調查結果。其中一項驚人發現是:科學家對AI的信任程度,比2024年明顯下降,儘管當時AI技術還不及現在先進。

舉例來說,2024年調查中有51%科學家擔心AI「幻覺」問題,也就是大型語言模型(LLM)會把完全虛構的資訊當事實輸出。到了2025年,擔憂這一問題的比例升至64%,同時研究人員中使用AI的比例從45%增加到62%。

此外,對安全及私隱的焦慮較去年增加了11%,對AI倫理和透明度的關注也有所上升。

與2024年AI研究新創企業頻頻登上頭條形成對比的是,今年對AI的炒作熱度大幅下降。去年調查中,超過一半科學家認為AI已經在多數應用場景中超越人類,但今年這個比例驟降至不足三成。

這些結果呼應了早前研究的結論:越了解AI運作的人,越不信任它;反之,最熱衷AI的往往是對技術知之甚少的用戶。

雖然仍需更多研究來確認這種趨勢的普遍性,但專業人士開始對AI助手產生懷疑並不難理解。

首先,AI幻覺問題相當嚴重,已經在法庭、醫療和旅遊等領域引發重大混亂。這並非易於解決的問題:今年五月的測試顯示,儘管AI模型變得更強大,但幻覺現象反而有所增加。

另一方面,AI作為牟利工具的特質也很棘手。專家指出,用戶普遍偏好那些自信滿滿的語言模型,而非那些坦承找不到資料或無法給出準確答案的模型——即使這些自信回答全是編造。若像ChatGPT這類平台真的徹底杜絕「懶惰幻覺」,恐怕會失去大量用戶。

所以,如果你對AI的炒作感到疑惑,不妨問問科學家,他們很可能會幫你打破幻想。

編輯評論:科學家的懷疑態度為AI發展敲響警鐘

這份報告揭示了一個耐人尋味的現象:隨著AI技術越來越普及,專業科研人員反而越來越不信任它。這種反差反映了AI現階段的尷尬處境——技術雖強,但問題依然重重,尤其是幻覺現象與缺乏透明度。

從科學家的角度看,AI並非萬能,甚至在關鍵領域可能帶來嚴重後果。這種懷疑精神正是科學進步的基礎:不盲目追捧,而是持續質疑和檢驗。對公眾而言,了解這種態度有助於理性看待AI,不被過度炒作蒙蔽。

同時,這也提醒AI開發者必須正視用戶需求與倫理責任,不能只追求華麗的功能或商業利潤,而忽略了準確性與安全性。未來AI的成功,必須建立在更透明、更可信、更負責任的基礎上。

換言之,科技發展不能只靠市場熱度推動,真正的突破來自於科學界嚴謹的監督和反思。對香港和全球的用戶來說,保持警惕,學習辨識AI的優缺點,才是迎接智能時代的正確態度。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗