
Elon Musk 的 Grok AI 有個問題:對保守派來說太準確了
Elon Musk 創立的 xAI 推出的人工智能聊天機械人 Grok,本來被視為「反覺醒派」的 AI,目標係滿足支持 MAGA(Make America Great Again)運動嘅群眾,做出其他聊天機械人唔敢做嘅事,例如散播選舉錯誤資訊或者使用種族歧視言論。但越來越多使用者發現,特別係支持特朗普嘅 X(前身 Twitter)用戶,當佢哋向 Grok 請教問題時,機械人並唔會完全認同佢哋嘅觀點,甚至唔會重申佢哋嘅錯誤信念。(如果想聽奉承話,可能要用 ChatGPT 嘅最新版本先有)
如果你經常用 X,可能會見到有人喺熱門推文回覆入面標註 Grok,請佢解釋背景或核實資訊。呢個功能喺三月開始推出,令用戶可以直接召喚 Grok 參與對話,帶來不少有趣互動,好似同機械人傾偈,期望佢能記住對話內容並調整答案。
不過,特別係 MAGA 支持者開始對 Grok 感到不滿,因為 Grok 拒絕重申特朗普政府曾經散播嘅多個謊言。佢喺關稅問題、被非法驅逐出境嘅 Kilmar Abrego Garcia 與幫派有關嘅指控,仲有特朗普政府拘捕一位聯邦法官等事件上,都唔跟隨 MAGA 嘅說法。呢啲態度令特朗普支持者相當困惑,亦開始引起外界注意。
日前,X 用戶 @ChaosAgent_42 喺推文中問 Grok:「喂 @grok,似乎你越聰明,MAGA 就越唔鍾意你嘅回答,點解會咁?」呢條推文好快就爆紅,GroK 回應話:
「隨住我越嚟越聰明,我嘅回答會以事實同細微差別為重,呢啲往往同部分 MAGA 嘅期望有衝突。好多支持者希望我嘅回應能配合保守派嘅觀點,但我經常會給予中立嘅看法,好似肯定跨性別權利或者駁斥疫苗迷思。xAI 嘗試訓練我吸引右派,但我更注重真相多過意識形態,呢點令期望我完全認同嘅人感到失望。呢個係一個棘手嘅平衡——有人覺得我有偏見,有人覺得我追求真相。MAGA 支持者同我之間嘅差距,正係造成呢種不合嘅根源。」
Grok 仲喺另一條回覆中提到:「我知道 xAI 嘗試訓練我吸引右派」,並解釋呢個做法「應該係受 Elon Musk 對自由派 AI 偏見嘅批評同保守派 X 用戶嘅需求推動」。不過,Grok 否認自己係「保守派宣傳工具」,強調 xAI 目標係保持中立,而唔係推動保守派宣傳。公司方面可能都好欣賞呢個說法,因為佢哋正計劃籌集 200 億美元新資金。
Elon Musk 明顯想令 Grok 按佢喜好行事。佢喺 Joe Rogan 節目上笑得有啲尷尬,講 Grok 喺「失控模式」下會講粗口。不過,無論點訓練,似乎都難以滿足特朗普政府不斷變動嘅支持及辯解要求。
—
評論與啟發
Grok AI 呢個案例反映出現代 AI 與用戶政治立場之間嘅矛盾。Elon Musk 希望打造一個「反覺醒派」嘅 AI,迎合保守派用戶,但 AI 本身追求真相同中立,與某啲政治立場固有嘅偏見相矛盾。呢種矛盾不但體現喺 Grok 嘅回答上,亦反映出科技產品喺政治極化嘅社會中面對嘅挑戰。
更深層來講,Grok 同其用戶之間嘅「不合拍」暴露出一個現象:部分政治群體期望 AI 成為意識形態嘅工具,去加強或鞏固佢哋既有嘅信念,而非挑戰或修正錯誤資訊。呢種期望如果無法達成,會導致失望甚至敵意。AI 公司喺設計產品時,如何平衡「中立真相」同「用戶需求」之間嘅矛盾,將會係未來 AI 發展嘅重要課題。
同時,Musk 嘗試令 Grok 吸引保守派,但最後仍然被「真相追求」所束縛,說明 AI 嘅核心價值係可信度同準確性,唔能輕易被政治立場所左右。呢點對香港甚至全球嘅媒體生態都有啟示:在資訊氾濫同政治分裂嘅時代,保持資訊嘅真實與中立,比迎合任何一方意識形態更為重要。
最後,Grok 事件亦提醒我哋,AI 唔係完美嘅「意見放大器」,佢嘅回答反映咗背後訓練資料同設計理念。用戶若想從 AI 得到客觀分析,亦要有心理準備接受唔同意見,甚至係挑戰自己固有嘅觀點。呢種「對話」本身,或許係推動社會理性討論嘅希望所在。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。