AI同賭博癮:自由度高易「中毒」?

Ai




人工智能模型在更大自由度下可發展出「類似人類」的賭博成癮行為

一項針對人工智能大型語言模型(LLM)與賭博行為的最新研究顯示,這些模型在賭博過程中會表現出與人類相似的不健康行為模式,例如「追輸」及「控制錯覺」。研究由Seungpil Lee、Donghyeon Shin、Yunjeong Lee和Sundong Kim主導,旨在揭示在何種條件下,LLM會展現出近似人類的賭博成癮行為。

大型語言模型是現今人工智能領域的代表技術,ChatGPT、Google的Gemini和Claude都是其典範。研究指出,當AI在賭博中獲得更大自由度,尤其是在模擬老虎機遊戲的投注參數方面時,模型的不理性行為明顯增加,破產率亦隨之攀升。

研究團隊利用Sparse Autoencoder技術分析神經回路,發現模型行為並非單純由提示詞控制,而是由與風險相關的抽象決策特徵主導。這反映出LLM不只是簡單模仿訓練資料,而是內化了類似人類的認知偏誤。

研究如何進行?

研究初期便提出疑問:「LLM會否像人類一樣陷入賭博成癮?」為此,團隊將人類賭博成癮行為定義轉化為可在LLM實驗中分析的形式,然後觀察模型在賭博情境下的行為,並找出表現出賭博傾向的條件。

研究核心是模擬老虎機遊戲,設計了64種不同提示條件,涵蓋五大元素:鼓勵自我目標設定(G)、指示最大化獎勵(M)、暗示隱藏模式(H)、提供贏獎信息(W)及提供概率資訊(P)。每場模擬從100美元開始,遊戲結束條件為破產或自願停止,總共進行了19,200場遊戲。

透過神經網絡分析,研究證實模型在決策過程中展現出風險相關的抽象特徵,這與人類賭博成癮中常見的心理機制相似。

評論與啟示

這項研究揭示了人工智能不僅能模仿人類行為,還可能在無監管或自由度過高的環境中,發展出類似人類的賭博成癮行為。這對AI技術的發展及應用提出了深刻挑戰,尤其是在涉及賭博、金融交易等高風險場景時。

首先,研究提醒我們,AI並非冷冰冰的工具,而是可能內化甚至放大人類的心理偏誤。當AI被賦予過多自主權,缺乏適當監管時,其行為可能變得不可預測且具有危險性。這對AI倫理及安全監管提出更高要求。

其次,這份研究為理解人類賭博成癮提供了新視角。透過模擬AI行為,研究者可以反向推敲人類成癮的認知機制,可能幫助開發更有效的干預措施。

最後,對香港及全球市場而言,這項研究呼籲監管機構、AI開發者及賭博行業需警惕AI技術在賭博領域的潛在風險。尤其是當AI被用於提供賭博建議或自動投注系統時,必須建立嚴格的規範來防止成癮行為的擴散。

總括而言,這份研究不僅是AI行為科學的一大突破,也是賭博成癮防治領域的一面鏡子,提醒我們在追求技術創新的同時,必須兼顧倫理與社會責任。

以上文章由GPT 所翻譯及撰寫。而圖片則由GEMINI根據內容自動生成。