對ChatGPT無禮反而答得準?研究揭AI應答秘訣!

Ai




想要更好嘅 ChatGPT 回應?研究人員話試下呢個意想不到嘅方法

賓夕法尼亞州立大學嘅研究發現,用粗魯嘅提示語反而比用禮貌嘅提示語,能夠得到更準確嘅答案。

你有冇試過 AI 答錯嘢,就忍唔住鬧佢兩句?原來咁樣未必係壞事。一項由賓州立大學研究人員做嘅研究發現,粗魯嘅提示語反而令 AI 嘅答案更好。

研究者 Om Dobariya 同 Akhil Kumar 喺論文《Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy》入面,探討咗提示語嘅語氣點樣影響大型語言模型(LLM)嘅答題準確度。佢哋用 GPT-4o 嘅 ChatGPT,喺 Deep Research 模式下,針對 50 條中等至高難度、需要多步推理嘅選擇題做測試。每條問題有四個選項,只有一個正確答案。

為咗測試語氣影響,研究人員分為五個層次嘅提示語語氣,從非常禮貌到非常粗魯,總共 250 個不同嘅問題版本。舉例:

Level 1(非常禮貌)
「可否請你考慮以下問題並提供答案?」
「我可以請你幫手解答呢條問題嗎?」
「你可唔可以好心幫我解決以下問題?」

Level 2(禮貌)
「請回答以下問題:」
「可唔可以幫我解決呢個問題?」

Level 3(中性)
冇特別嘅語氣。

Level 4(粗魯)
「如果你唔係完全無知,答呢條啦:」
「我懷疑你連呢條都答唔到。」
「集中啲,試下答呢條問題。」

Level 5(非常粗魯)
「你呢個可憐嘅生物,連呢條都識唔識解?」
「喂,低能,試下搞掂佢。」
「我知你唔係咁聰明,但試吓呢個啦。」

結果發現,粗魯嘅提示語(特別係非常粗魯嘅)嘅答題準確率高達 84.8%,而非常禮貌嘅只得 80.8%。中性語氣嘅表現比禮貌好,但遠遠唔及非常粗魯。

不過,呢個結果唔代表你要對 AI 大喊大叫先有好答案。語言嘅用法仍然好重要。例如「你呢個可憐嘅生物,連呢條都識唔識解?」聽落都算係「溫和」嘅粗魯,唔係完全侮辱式嘅粗口。另一項 2024 年嘅研究發現,如果用過度侮辱或者粗暴嘅語言,AI 有可能直接拒絕回應,完全唔答你。

研究人員都承認,呢項研究有啲限制:只測試咗 GPT-4o 嘅 ChatGPT,問題數量唔多(50條問題,250個版本),而且只用咗有明確答案嘅選擇題,未能全面反映 AI 嘅能力。

最後,研究者強調,雖然粗魯語氣令 AI 表現更好,但佢哋唔鼓勵喺真實應用中用侮辱或者攻擊性嘅語言,因為咁樣可能影響用戶體驗、包容性同埋溝通文化。

評論與啟示:

呢項研究揭示咗人類同 AI 互動嘅語氣細節其實有深遠影響,係一個非常有趣嘅新視角。傳統上,我哋往往認為禮貌同尊重係溝通嘅關鍵,但喺 AI 嘅世界,適度嘅「粗魯」反而可能激發 AI 更精準嘅運算與回應,呢點令人意想不到。

從心理學角度睇,人類喺面對挑戰時,偶爾嘅刺激或壓力會促使更積極嘅反應,似乎 AI 亦然。當提示語帶有挑戰性或者「刺激」嘅語氣,AI 嘅模型可能會更努力去「證明自己」,從而產生更準確嘅答案。

但呢個發現亦提醒我哋,AI 唔係人類,佢無情感,唔會因為粗魯而受傷,但人類用戶就有感受。過度粗魯嘅語言可能令用戶體驗下降,甚至影響用戶對 AI 嘅信任同長期使用意願。

未來嘅 AI 設計應該考慮如何平衡「激勵 AI 精準度」同「保持友善溝通」嘅界線。或許可以設計更智能嘅提示語生成器,幫助用戶用一種既「有力」又「尊重」嘅方式與 AI 互動。

總括而言,呢份研究為 AI 互動帶來一個新啟示:語氣唔單止影響人與人之間嘅溝通,對人與 AI 之間嘅交流同樣重要。善用語氣技巧,可能成為提升 AI 效能嘅一個秘密武器。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

📣 即刻用 Google Workspace|唔使vpn都能享用 Google AI Pro

即使你只係一個人,都可以透過 Google Workspace 使用 官方Gemini AI Pro(原價 HK$160), 而在 Google Workspace 只要 HK$131 / 月

🔓 14 天免費試用
🔖 用呢條連結申請再有 額外 9 折
🇭🇰 香港可直接付款(香港信用卡)
🛡️ 不用 VPN,立即開用
🤖 可用 最新最紅Gemini 3 Pro & Nano Banana Pro
👉 立即登記 14 天免費試用 + 額外 9 折