11件你唔應該用ChatGPT做嘅事
ChatGPT同其他AI聊天機械人改變咗我哋同世界互動嘅方式。你可以用佢整理生活、計劃旅程、安排一星期嘅買餸清單,甚至考慮未來嘅職業選擇。不過,ChatGPT並非萬能,仲有好多限制。
雖然我都係ChatGPT嘅粉絲,但我好清楚佢嘅不足,無論你係新手定係專家,都應該了解佢嘅限制。ChatGPT用嚟試新食譜、學外語或者計劃假期都幾好玩,但千祈唔好畀佢操控你嘅生活。佢唔係咩嘢都識,甚至好多時都會出錯。
ChatGPT有時會「幻覺」式咁編造資料當真,又唔一定有最新資訊。佢好有自信,即使講錯嘢都唔會收聲。(其他生成式AI工具都係咁。)尤其係涉及稅務、醫療賬單、法庭日期或者銀行結餘等重要事務,ChatGPT嘅不可靠性就更加明顯。如果你唔肯定幾時用ChatGPT有風險,以下11個情況你就唔好用佢,最好揀其他方法。
(聲明:CNET母公司Ziff Davis喺2025年4月就ChatGPT製造商OpenAI提告,指控OpenAI侵犯版權,將相關內容用作訓練AI。)
1. 診斷身體健康問題
我都試過用ChatGPT輸入自己嘅症狀,好奇想知答案,但結果往往令人驚慌。佢可能話你脫水、流感,甚至癌症。我試過輸入胸口有個腫塊,佢竟然話我可能癌症,實情我係長咗脂肪瘤(無癌性),係醫生話畀我知嘅。
唔係話ChatGPT冇用喺健康方面:佢可以幫你寫醫生問診嘅問題、翻譯醫學術語、整理症狀時間表,令你睇醫生時準備得更好。但AI唔會幫你驗血或者親身檢查,亦冇醫療保險,千祈唔好過份依賴。
2. 處理心理健康問題
ChatGPT可以提供安定心神嘅技巧,但佢唔會喺你心理健康出事時打電話求助。有啲人用ChatGPT代替心理治療師,CNET記者Corin Cesaric就覺得ChatGPT喺處理喪親情緒時有啲幫助,但佢同時知道AI嘅限制。作為一個有真人治療師嘅人,我可以話ChatGPT頂多只係個模仿,甚至好危險。
ChatGPT冇真實人生經驗,唔識讀你嘅肢體語言同語氣,亦冇真正同理心,淨係係模擬同理心。真正治療師有法律同專業守則保障你,ChatGPT冇。佢嘅建議可能錯漏百出,忽視危險信號,甚至加深偏見。心理健康嘅深層工作應該交畀專業人士做。如果你或者你身邊有人有危機,請即刻撥打緊急熱線。
3. 作出即時安全決定
碳氧化物警報響起時,唔好即刻搵ChatGPT問有冇危險,應該即刻離開現場再求助。大型語言模型無法聞氣味、察覺煙霧或者派遣救援隊。緊急時刻,每秒鐘都寶貴,打字慢咗就可能危及生命。ChatGPT只係事後解釋,唔係第一時間應變。
4. 個人化理財或報稅規劃
ChatGPT可以解釋ETF係乜,但佢唔知道你嘅債務收入比、州稅率、報稅身份、扣減項目、退休目標或者風險承受能力。因為佢嘅訓練資料可能未更新至最新稅務年度或者最新利率,建議可能過時。
有啲朋友會將1099收入數字丟入ChatGPT自助報稅,但AI唔能取代專業會計師,後者可以幫你搵返幾百蚊嘅扣減或者避免幾千蚊嘅錯誤。涉及真金白銀、截止日期同稅務罰款時,一定要搵專業人士。仲要知道,你喺AI聊天機械人入面輸入嘅資料,有可能被用作未來AI培訓數據,包括收入、社會安全號碼同銀行資料。
5. 處理機密或受規管資料
作為科技記者,我每日收到新聞發佈稿,但我從未想過將呢啲內容丟入ChatGPT幫我摘要或解釋。因為一旦輸入,資料就會離開我嘅控制,落到第三方伺服器,可能違反保密協議。
同樣風險適用於客戶合約、醫療記錄、受加州消費者隱私法案(CCPA)、HIPAA、GDPR或商業機密法保護嘅資料。包括你嘅稅務、出生證明、駕駛執照同護照。輸入敏感資料後,冇辦法保證資料存放位置、誰可以查閱或者會唔會用嚟訓練未來AI。ChatGPT亦唔係免疫於黑客攻擊同安全威脅。唔好將私隱資料放入ChatGPT,就好似唔會喺公開Slack頻道貼出嚟一樣。
6. 做違法嘅事
呢點唔使多講。
7. 學業作弊
我唔會呃你,我高中時考試都試過偷睇電子計算器偷睇公式,但AI作弊嘅規模同手段已經完全唔同。Turnitin同類檢測工具每學期都愈嚟愈識分辨AI寫嘅文章,教授一聽就知係「ChatGPT腔」。停學、開除甚至吊銷資格都係真實風險。最好用ChatGPT做學習助手,而唔係代寫。交畀AI做功課等於自己偷咗自己嘅教育。
8. 跟蹤資訊同突發新聞
OpenAI喺2024年底推出ChatGPT Search(2025年2月開放畀所有人),令ChatGPT能夠即時搵到新嘅網頁、股票報價、油價、體育比分等即時數據,仲有可點擊嘅來源鏈接方便核實。不過,佢唔會自動連續更新,必須每次刷新都要新輸入指令。當速度緊要時,現場數據流、官方新聞稿、新聞網站、推送通知同直播報道仍然係最佳選擇。
9. 赌博
我試過用ChatGPT投注NCAA男子籃球冠軍三重彩,仲贏咗,但我唔會推薦俾任何人。ChatGPT有時會編造錯誤球員數據、傷患消息同勝負紀錄。我係因為自己反覆核實即時賠率先敢下注,仲係靠運氣。ChatGPT唔能預測未來比賽結果,唔好完全靠佢贏錢。
10. 草擬遺囑或其他具法律效力嘅合約
ChatGPT適合解釋基本法律概念,如果想了解可撤銷生前信託,佢可以幫你。但一旦叫佢草擬法律文件,就有風險。遺產法同家庭法喺唔同州甚至不同郡有差異,少咗見證人簽名或者公證條款,文件可能完全無效。最好用ChatGPT列一份問律師嘅清單,然後請律師幫你寫正式文件,確保法庭認可。
11. 創作藝術
呢點係我個人意見,但我唔認為AI應該被用嚟創作藝術。我唔反對人工智能,ChatGPT幫我構思新點子、寫標題都幾好,但係補充唔係代替。盡管可以用ChatGPT幫手,但千祈唔好用佢創作藝術作品,然後冒充自己嘅。呢種做法好唔尊重藝術。
—
編輯評論與深入思考
ChatGPT同類型AI工具嘅普及,帶嚟咗前所未有嘅便利,但同時亦暴露咗科技嘅侷限與倫理挑戰。文章指出咗多個生活中唔適合依賴ChatGPT嘅範疇,提醒用戶唔好盲目信任AI,尤其係涉及生命安全、個人隱私同法律責任嘅領域。
呢啲警示尤為重要,因為AI往往表現得好似萬能,令用家易產生過度依賴嘅錯覺。事實上,AI嘅「自信錯誤」現象(hallucination)非常普遍,佢哋無法像人類專家般理解背景、法律細節或人類情感,亦無法承擔責任。這提醒我們,AI應該係輔助工具,而唔係替代專業判斷同人際互動。
另外,文章點出資料安全問題,尤其係將敏感資料輸入AI平台嘅風險,係目前大多數用戶忽略嘅盲點。隨著AI技術被廣泛應用,如何保障用戶資料私隱,防止資料被濫用,成為業界同監管機構必須正視嘅課題。
最後,對於藝術創作嘅看法亦引人深思。AI創作藝術帶嚟嘅版權爭議、原創性問題同倫理辯論,正逐漸成為文化界熱議話題。人類創作者同AI之間嘅界線未來將越來越模糊,如何平衡技術發展同尊重創作精神,值得社會持續討論。
總括而言,本文不僅提醒用戶對AI保持理性態度,亦促使我們反思人工智能發展背後嘅社會、法律及倫理挑戰,為未來科技應用指引方向。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。