AI專家唔信ChatGPT?原因大揭秘!

Ai

好多AI專家都唔信人工智能聊天機械人——原因係咩?

自從OpenAI喺2022年11月公開推出ChatGPT之後,人工智能(AI)喺全球迅速爆紅。之後有唔少公司都推出自家嘅聊天機械人,想搶佔呢個不斷擴大嘅市場。即使競爭激烈,ChatGPT每日仍收到超過25億次嘅查詢,足見AI喺而家嘅生活中有幾咁普及。

根據OpenAI嘅數據,ChatGPT用戶主要用嚟幫助日常工作,「四分之三嘅對話都係圍繞實用指引、尋求資訊同寫作」。雖然AI喺私人同專業領域嘅應用急速上升,但打造呢啲系統嘅專家,對AI嘅信任度其實並唔高。

當大眾越嚟越依賴AI聊天機械人,甚至用嚟完成如寫警察報告咁重要嘅任務,AI專家嘅懷疑反而成為一個熱議話題。《衛報》最近報道指,部分AI專家甚至建議親朋好友盡量避免使用AI,原因多樣。

咩原因令AI專家對聊天機械人持懷疑態度?

真正最了解AI聊天機械人嘅,肯定係啲開發者同評估人員。呢班人係不斷推動新模型界限嘅主力軍,同時負責檢視輸出質素,確保結果更佳。《衛報》訪問咗唔少AI領域嘅專家,佢哋嘅疑慮有幾個重點。首先,企業為咗求快,對評估員嘅培訓同資源投入不足,令工作質素難以達標。

Brook Hansen話:「我哋要幫助改善模型,但經常只收到模糊或者不完整嘅指示,培訓少之又少,完成任務嘅時間又好緊迫。」有評估員甚至透露,負責評核敏感醫療內容嘅同事,對該範疇嘅基本知識都唔夠。唔止評核方面有人批評,一位Google AI評估員更透露,佢因為見識到訓練數據嘅質素差勁,開始懷疑整體技術,並建議身邊人避免使用聊天機械人。

另一個令專家唔信任AI嘅原因,就係所謂嘅「幻覺」問題,即模型會生成完全錯誤或者無根據嘅答案。OpenAI執行長Sam Altman喺一段YouTube影片中講過,人哋對ChatGPT嘅信任度好高,令佢覺得幾有趣,但同時又認為呢種信任可能係錯誤嘅,因為AI會「幻覺」,唔應該過度依賴。前OpenAI研究科學家兼Tesla AI部門前主管Andrej Karpathy亦喺社交平台上提醒,唔應該冇人監督就直接用AI喺生產環境。

你應該信AI聊天機械人嗎?

答案係唔好盡信。如果連AI專家都充滿懷疑,普通用戶就更應該對AI嘅答案保持警覺。今年早啲時候,我哋見到Google嘅AI系統出現多宗明顯錯誤,證明唔可以完全信任AI產出。因為呢啲錯誤,大家都應該避免向ChatGPT或者其他AI聊天機械人提出某啲敏感或者複雜嘅問題,以免得到誤導。

例如,數據科學家兼紐約大學教授Meredith Broussard就喺MIT科技評論嘅訪問中建議,唔好用AI處理社會議題,因為呢啲問題本身就好複雜。另外,媒體素養非牟利組織NewsGuard嘅最新研究發現,主要AI聊天機械人重複錯誤資訊嘅機率由2024年8月嘅18%幾乎翻倍,升至2025年8月嘅35%。其中ChatGPT散播錯誤資訊嘅機率高達40%。連Google執行長Sundar Pichai都提醒大家唔好盲信AI聊天機械人,所有由AI得出嘅資料或者對話,都應該親自核實真確性。

評論與反思:

AI聊天機械人雖然帶嚟前所未有嘅便利,但本文揭示咗一個鮮為人知嘅現實:連專業人士都對呢項技術保持高度懷疑。呢種矛盾嘅心態反映出AI發展嘅一個核心問題——技術進步快過倫理、培訓、監管同數據質量嘅提升。企業追求速度同市場份額,往往忽略咗系統背後嘅責任與透明度,令評估員無法發揮應有嘅專業水準。

「幻覺」現象不單止係技術缺陷,更係AI目前未能達到人類判斷力嘅一個明顯標誌。用戶對AI嘅信任不應該盲目,而應該建立喺對技術限制嘅清晰認識上。尤其當AI被用嚟處理敏感或複雜議題時,冇人類監督嘅AI有可能製造更大嘅誤導甚至傷害。

未來AI嘅發展應該更加注重「人機協作」,而唔係單純取代人類判斷。培訓好評估員、提升數據質素同強化監管框架,係建立用戶信任嘅關鍵。香港作為國際金融和科技中心,面對AI技術嘅普及,更應該推動相關教育和政策制定,確保AI嘅應用安全可靠,避免成為科技迷思下嘅盲目跟風。

總括嚟講,AI聊天機械人係一把雙刃劍,佢嘅潛力巨大,但風險亦同樣不可忽視。用戶要保持警覺,企業要負責任,政府要有遠見,先能令呢項革新技術真正造福社會。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

✨🎱 Instagram留言 →

AI即回覆下期六合彩預測

🧠 AI 根據統計數據即時生成分析

💬 只要留言,AI就會即刻覆你心水組合

🎁 完!全!免!費!快啲嚟玩!

IG 貼文示意圖 AI 即時回覆示意圖

下期頭獎號碼

📲 去 Instagram 即刻留言