AI測試揭示智能不足,難以理解數學問題

Ai

這些蘋果研究人員剛剛證明了AI機器人無法思考,並且可能永遠無法

在一項有關人工智能的研究中,蘋果公司發現,許多先進的AI模型在解決簡單的數學問題時表現不佳,甚至無法正確理解問題的基本邏輯。這項研究的結果引發了對AI技術能力的廣泛關注。

研究團隊以一個簡單的算術問題為例:奧利弗在星期五採摘了44個奇異果,星期六又採摘了58個,星期天他採摘的數量是星期五的兩倍,但有五個比平均大小小。問題是奧利弗總共有多少個奇異果?如果你回答“190”,恭喜你,你的表現與大多數小學生相當。然而,這些AI模型卻經常給出錯誤的答案,甚至有些模型還將五個小奇異果從總數中減去,回答“185”。

研究的意義

這項研究揭示了AI系統在處理簡單數學問題時的重大缺陷。研究人員指出,與人類學生相比,這些系統在區分相關信息和無關信息方面的能力明顯不足。這項研究的發現不僅受到業界的關注,還因為蘋果公司作為一家領先的高科技消費公司,最近剛推出了一系列宣稱具備AI功能的iPhone新特性。

AI批評者加里·馬庫斯指出,這些結果並不令人驚訝,因為早期的研究已經表明,許多大型語言模型(LLMs)並不真正“思考”,而是基於它們訓練過的數據進行模式匹配。這意味著在抽象推理方面,這些AI模型仍然遠遠落後於人類。

AI模型的局限性

蘋果研究團隊的研究目的是檢視這些模型是否真正理解數學概念。他們的結論是,這些模型無法充分理解這些概念。研究人員還提出,這些缺陷不是簡單的數據擴展或計算能力提升所能解決的。這一發現對於宣傳AI產品的公司來說,無疑是一個警鐘,因為這些公司通常會將其產品描繪得可靠而可信,但實際上其輸出經常存在問題。

馬庫斯強調,這些AI系統的錯誤不僅僅是小問題,尤其在需要絕對準確性的應用場景中,錯誤的後果可能非常嚴重。他指出,儘管某些AI應用(例如推薦引擎)出錯不會造成重大損失,但在醫療等重要領域,準確性至關重要。

最後的思考

這項研究提醒我們,AI技術的發展需要謹慎對待,尤其是當這些技術被應用於關鍵任務時。人類仍然需要在AI的決策過程中扮演重要角色,以確保其輸出的準確性和安全性。我們必須對AI的局限性保持清醒的認識,防止被誇大的宣傳所誤導。這不僅關乎技術本身,還涉及到如何正確地理解和利用這些技術,以避免在未來的應用中出現不可挽回的錯誤。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *