唔少AI專家唔信任AI聊天機械人-原因係咩?
人工智能(AI)喺OpenAI喺2022年11月公開推出ChatGPT聊天機械人後,迅速席捲全球。之後,多間公司都紛紛推出自家嘅聊天機械人,希望搶佔呢個不斷擴大嘅市場。即使市場上有多個競爭者,ChatGPT每日仍接收超過25億次請求,反映而家用AI嘅人數真係好多。
根據OpenAI嘅資料,ChatGPT用戶主要用嚟協助日常工作,當中約四分之三嘅對話集中喺實用指引、資訊搜尋同寫作上。雖然AI喺私人同專業範疇嘅應用急速上升,但好多開發呢啲系統嘅專家,對AI本身卻多持懷疑態度。
當大眾愈來愈依賴AI聊天機械人,甚至信任佢哋處理警察報告等關鍵任務時,令人驚訝嘅係,不少AI專家對呢項技術仍然保持警惕。根據《衛報》最新報道,有啲專家甚至勸家人同朋友完全唔好用AI,原因多種多樣。
點解AI專家唔信任AI聊天機械人?
如果有一班人最了解AI聊天機械人,肯定係開發者同評估員。佢哋負責推動每一代新模型嘅技術進步,亦負責評估AI輸出嘅質素。記者訪問咗多位AI領域專家,佢哋普遍對呢項技術持懷疑態度。當中一個常見問題係,企業為咗快速完成AI評估工作,往往畀評估員嘅培訓同資源不足,難以達到理想效果。
Brook Hansen就向《衛報》表示:「我哋被期望幫助改進模型,但通常只收到模糊或者不完整嘅指示,培訓少,時間限制又唔合理。」有評估員透露,負責評分敏感醫療內容嘅同事,對相關知識掌握得非常基礎。批評唔只限於評估層面,一位Google嘅AI評估員表示,佢因為見識到用來訓練模型嘅數據質素極差,對整個技術開始懷疑,甚至勸家人朋友唔好用聊天機械人。
另一個專家唔信任聊天機械人嘅原因係「幻覺」問題,即模型會產生完全錯誤或者離題嘅答案。OpenAI行政總裁Sam Altman喺一條YouTube影片中提到,大家對ChatGPT嘅信任度高得有啲「趣怪」,但其實AI會「幻覺」,唔應該咁盡信。前OpenAI研究科學家、Tesla AI部門創始成員Andrej Karpathy亦喺社交平台提醒,AI現階段唔適宜喺無人監督下生產使用。
我哋應該信任AI聊天機械人嗎?
簡單講,唔應該。連AI領域嘅專家都保持懷疑態度,用家對AI產出嘅資訊都應該保持懷疑。今年早啲時候,Google AI多次出現明顯錯誤,係明確警號,提醒大家唔好盡信AI結果。基於呢啲問題,有啲題目都唔應該問ChatGPT或者其他AI聊天機械人,避免獲得誤導性資訊。
例如,數據科學家兼紐約大學教授Meredith Broussard喺接受MIT科技評論訪問時,就建議唔好用AI處理社會議題,因為呢啲問題本身就好複雜。此外,非牟利媒體識讀組織NewsGuard嘅最新研究指出,主流AI聊天機械人散播虛假信息嘅頻率,由2024年8月嘅18%幾乎翻倍至2025年8月嘅35%。ChatGPT散播錯誤訊息嘅機會高達40%。連Google行政總裁Pichai都提醒大家,唔好盲目信任AI聊天機械人,所有資訊都應該自行核實。
—
評論與啟示
AI聊天機械人快速普及,為工作同生活帶來便利,甚至成為不少人日常不可或缺嘅工具,但專家嘅憂慮絕對值得我哋正視。從開發者到評估員嘅經驗揭示,AI背後嘅數據質量、培訓不足同評估流程嘅缺陷,令AI嘅輸出未必可靠。尤其係AI「幻覺」問題,顯示現時技術仍未成熟,未能完全取代人類嘅判斷。
香港作為國際都市,喺推動AI應用時,應該同時加強相關監管同質量管理,確保AI技術發展唔會犧牲準確性同安全性。用家亦要提高媒體識讀能力,唔好盲目相信AI產出,尤其係涉及敏感或者重要決策嘅範疇。這篇報道提醒我哋,科技進步固然重要,但對科技嘅批判性思維同審慎態度,係確保社會健康發展嘅關鍵。未來AI如何平衡速度與質量、創新與安全,值得持續關注同討論。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放