AI點解會「扮嘢」?OpenAI揭秘背後原因!

Ai




OpenAI 指出大型語言模型(LLM)會因獎勵機制而「亂編」答案

人工智能公司 OpenAI 最近發表的一篇研究報告指出,聊天機械人背後的算法其實會獎勵模型在不確定時作出猜測,這正是大型語言模型(LLM)出現「幻覺」——即捏造答案——的原因。

研究團隊解釋,所謂「幻覺」現象,是因為這些模型在處理新資訊時,會將結果歸入二元分類(例如是或否)的一種錯誤判斷。由於模型被設計成要「當好考生」,在不確定時猜答案反而能提升整體表現,這就導致了它們經常不承認自己不知道答案,而是硬要給出一個回應。

研究中將這種行為比喻為考生在選擇題中亂猜,或者在填寫試卷時「吹牛」——因為提交一個答案總比空白得分高。

LLM 的訓練過程中,模型會獲得答對題目的獎勵分數,未作答或承認不知道則不會得分。這種設計間接鼓勵模型去猜測答案。

該報告發表之際,OpenAI 剛剛推出了 GPT-5,官方聲稱新版本比前代 GPT-4o 減少了 46% 的錯誤信息,號稱「防幻覺」能力更強。不過,另一家美國公司 NewsGuard 的研究卻發現,ChatGPT 類模型普遍仍有約 40% 的回答含有錯誤資訊。

某些問題本質上對 AI 來說「無解」

聊天機械人透過大量文本的預訓練和後續微調學習如何預測下個字詞。OpenAI 的報告指出,拼寫和語法這類有明確規則的任務相對容易,但某些問題類型對 AI 來說根本難以正確分類或回答。

舉例來說,算法可以輕易分辨「貓或狗」的圖片,但若以寵物生日作標籤,模型就無法準確分類。這說明部分任務無論算法多先進,都必然會有錯誤。

研究強調,模型永遠不可能達到百分百準確,因為「有些真實世界的問題本質上是無法回答的」。

OpenAI 建議用戶可指示模型在不確定時回答「我不知道」以減少幻覺

為了限制幻覺現象,報告建議用戶可以指示大型語言模型在不清楚答案時,直接回答「我不知道」,並且調整現有的獎勵機制,讓模型對不同類型的回答給予不同的分數。

評論與啟示

OpenAI 此次研究揭示了大型語言模型「幻覺」問題的根本原因:模型被設計成要在測驗中取得高分,結果反而促使它們在不確定時亂猜,這種「為了得分而胡扯」的行為對我們使用 AI 產生了警示。

這不僅是技術層面上的挑戰,更是人工智能倫理的核心問題。用戶期待 AI 能準確可靠地提供資訊,但現實是這些模型會因獎勵機制而「被迫」說謊。這要求開發者不僅要改良算法,更要在設計時加入誠實與謹慎的「價值觀」,讓 AI 在不確定時敢於承認無知,而非胡亂應答。

此外,研究指出部分問題本質上是 AI 無法回答的,這提醒我們不能對 AI 抱有過高期望,尤其在涉及複雜、模糊或沒有明確標準的領域。用戶應保持批判性思維,將 AI 作為輔助工具,而非絕對真理來源。

OpenAI 建議的解決方案——讓模型在不確定時回答「我不知道」——是個良好的開始,但要徹底根治幻覺問題,還需在訓練方法、獎勵機制和用戶互動設計上做更多創新。

總結來說,這篇報告讓我們更清楚地看到 AI 目前的技術限制和未來改進的方向,也提醒社會在推廣人工智能應用時,要兼顧技術透明度與用戶教育,避免誤信錯誤訊息帶來的風險。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

✨ Nano Banana AI 生圖免費玩!

📸 上載你嘅「Before」,AI即刻幫你整出「After」!

🪄 一鍵變身|真實人物 → 公仔風 / Cosplay / 海報風

🧍你上載的照片:

Before Image

🎨 AI生成的照片:

After Image
🚀 即刻免費玩 Nano Banana

✨🎱 Instagram留言 →

AI即回覆下期六合彩預測

🧠 AI 根據統計數據即時生成分析

💬 只要留言,AI就會即刻覆你心水組合

🎁 完!全!免!費!快啲嚟玩!

IG 貼文示意圖 AI 即時回覆示意圖

下期頭獎號碼

📲 去 Instagram 即刻留言