好多AI專家唔信任AI聊天機械人——原因係咩?
人工智能(AI)喺2022年11月,OpenAI公開推出ChatGPT聊天機械人之後,迅速席捲全球。之後,唔少公司都搶住推出自家嘅聊天機械人,想分一杯羹。即使市場上有好多競爭者,但ChatGPT每日仍有超過25億次嘅使用請求,由此可見AI依家嘅使用程度幾咁普遍。
根據OpenAI嘅數據,ChatGPT用家主要係用嚟幫手做日常嘅工作,「有四分之三嘅對話係圍繞實際指引、資訊查詢同寫作」。不過,儘管AI喺私人同專業範疇都急速普及,發展呢啲系統嘅專家,卻有好多對AI唔係好信任。
而家社會上圍繞AI使用有唔少爭議,大家越來越依賴AI聊天機械人,甚至會用佢哋去寫警察報告等重要文件。令人意外嘅係,根據《衛報》最近報道,唔少AI領域嘅專家對呢項技術持懷疑態度,甚至建議朋友同家人盡量唔好用AI聊天機械人,原因有好多。
點解專家會對AI聊天機械人持懷疑態度?
講到AI聊天機械人,最了解佢哋嘅一定係啲開發者同評估員。佢哋負責推動每一代模型嘅進步,亦會評估AI輸出嘅質素。喺《衛報》訪問中,唔少AI專家都表達咗對技術嘅疑慮。佢哋反覆提到一個問題:公司過份追求快速完成評估工作,卻冇提供足夠嘅培訓同資源,令評估員難以做到最好。
Brook Hansen話:「我哋本應該幫助改進模型,但公司畀嘅指示往往模糊不清,培訓好少,時間又好緊迫。」有評估員透露,負責評估敏感醫療內容嘅同事,對相關知識了解得非常有限。評估工作嘅問題之外,有Google嘅AI評估員更坦言,親眼見到用來訓練模型嘅數據質素差到令人懷疑,令佢對整個技術都產生懷疑,甚至建議身邊人唔好用聊天機械人。
另外一大原因係AI模型經常「幻想」(hallucination)——即係產生完全錯誤或者離譜嘅答案。OpenAI CEO Sam Altman喺一條YouTube影片入面提到,好多人對ChatGPT嘅信任度好高,但佢覺得呢種信任可能係錯誤嘅,因為AI會「幻想」,唔應該被過份依賴。OpenAI前研究員、Tesla AI部門前主管Andrej Karpathy亦喺X(前Twitter)發文提醒,AI喺生產環境使用時,必須有人類監督,唔可以盲目信任。
我哋應唔應該信任AI聊天機械人?
簡單嚟講,答案係唔好全信。如果連AI領域嘅專家都持懷疑態度,我哋更加要對AI嘅輸出保持懷疑。年初嘅時候,Google AI喺多個情況下出現明顯錯誤嘅報告,係一個警號,提醒大家唔好將AI嘅答案當真。基於呢啲錯誤,坊間亦有好多建議,指出有啲問題絕對唔好問ChatGPT或者其他AI聊天機械人,因為佢哋好可能畀出誤導性嘅資訊。
例如,MIT Technology Review訪問中,數據科學家兼NYU教授Meredith Broussard建議,社會議題呢啲較為複雜同細膩嘅問題,唔應該用AI嚟解答。另外,媒體素養非牟利組織NewsGuard嘅一份最新報告發現,主要AI聊天機械人重複錯誤資訊嘅機率,喺2024年8月至2025年8月期間,幾乎翻倍,由18%升至35%。報告仲指出ChatGPT有40%嘅機會散播錯誤資訊。連Google CEO Sundar Pichai都提醒大家唔好盲目信任AI聊天機械人,所有透過AI得嚟嘅資訊都應該自行反覆核實。
—
編輯評論:
呢篇文章揭示咗一個好矛盾嘅現象:AI聊天機械人越來越普及,但背後嘅專家卻對佢哋嘅可靠性深感憂慮。呢種矛盾好值得我哋深思。AI技術本身唔係完美,尤其係「幻想」問題,令使用者容易誤信錯誤資訊,甚至喺關鍵領域如醫療、法律、警察工作中造成風險。
更重要嘅係,AI背後嘅數據質素同評估機制仍有很大提升空間。公司過度追求速度同產量,忽視咗質量同評估員嘅專業培訓,結果係AI模型嘅表現參差不齊。呢點提醒我哋,推動AI發展唔應該只係追求市場份額或者技術炫耀,而係要重視底層嘅數據質素、倫理標準同持續嘅人類監督。
最後,作為用家,我哋應該建立正確嘅AI使用心態:AI係輔助工具,而唔係權威答案嘅提供者。尤其係面對複雜、敏感嘅社會問題或者專業領域,AI嘅建議一定要由人類專家判斷同核實。未來AI嘅發展仍充滿機遇,但亦伴隨風險,唯有謹慎使用,先可以真正享受到AI帶嚟嘅好處,而唔會被誤導。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。