我用ChatGPT做生意計劃,結果成為一個警示故事
用ChatGPT整一個穩陣嘅生意計劃,真係要飲幾杯咖啡,仲要眼睛好尖先發現佢啲錯。
大家而家都知道,生成式人工智能(AI)有時幾不穩陣。如果你用佢嚟編輯小說或者創作圖片,AI可能會加啲同故事唔啱嘅元素,或者對圖片嘅處理失焦。呢啲波動有時都值得,因為佢幫你快啲構思同修正,但如果係涉及複雜過程,好似財務預測,就要花好多時間核對同修正,否則好容易走錯路。
用ChatGPT做一個生意計劃就好似一個測試。我花咗幾星期同ChatGPT研究一個假設嘅生意計劃,結果幫到手,但錯漏百出。
(聲明:ZDNET母公司Ziff Davis喺2025年4月對OpenAI提告,指控佢哋侵犯版權。)
教訓係:同ChatGPT溝通越耐,錯誤越多,令過程好煩躁。
用ChatGPT做生意計劃
我用最新OpenAI GPT-5模型,開始同ChatGPT傾計,計劃點樣透過廣告買幾千訂戶,發展一個新嘅電子報生意。
呢個計劃涉及不斷建立同修改訂戶數量、收入、廣告開支同現金流嘅Excel表格。
ChatGPT幫我由零開始整Excel表格,仲可以玩唔同假設,例如訂戶增長速度。
我最初問ChatGPT:「有冇一個簡單嘅生意計劃架構,講點樣喺三年內由250訂戶增長到1萬,假設每年流失率16%?」
我哋來回修改好多次,我加咗訂閱費每月30美元嘅資料,表格同圖表不停更新,自己可以調整各種指標,睇下對生意有咩影響。例如改變獲取訂戶嘅成本(CAC),就會影響盈虧表。
錯誤開始出現
大約做咗三分一嘅時候,第一個錯誤嚟咗。盈虧表顯示第10個月生意開始賺錢,但ChatGPT話第43至45個月現金流先轉正。
我指出表格同圖表都顯示第10個月已經賺錢,佢先承認錯誤,仲話「係我嘅錯」。
過咗幾輪,ChatGPT又犯同類錯誤,話第11個月先收支平衡,唔係第10個月。原來佢「忘記」咗我哋係由250訂戶開始計,唔係零。
呢啲錯誤反映咗生成式AI嘅一個大問題:佢記憶唔牢固,會漏咗啲關鍵假設,流程唔完整。
「唔好意思,我錯咗!」
每次ChatGPT更新表格同圖表,都會有奇怪嘅錯誤冒出嚟。
例如計算生意「終值」—即係唔再增減訂戶時嘅價值,我問佢用精確數字定四捨五入數字。
佢話60個月後訂戶係9,200人,但前一刻嘅表格係10,228。ChatGPT就咁承認錯誤,冇解釋,我就要自己做嚴格嘅核對員。
冇解釋,冇理由
最令人火大係,ChatGPT或者其他AI都唔會解釋點解錯。
佢會用「我錯咗」嚟應付,但唔會解釋點解會同自己生成嘅表格數字矛盾。
我翻查咗之前嘅對話,發現佢係根據一個未經核實嘅數字作答。
打地鼠遊戲
呢啲錯誤好似打地鼠咁,唔夠留神就會錯過,後面可能令整個模型偏差。
做呢啲複雜嘅計劃,涉及好多變數,例如訂戶增長、獲取成本、訂戶終身價值等等,你要好清楚自己拉緊邊條槓桿。
同ChatGPT合作,好似有個幫手,但有時佢會畀錯槓桿你,或者將你想用嘅藏起嚟。
AI到底發生咩事?
有學者好似Gary Marcus就指出,ChatGPT冇真正嘅邏輯推理能力。佢唔係用理性思考,而係憑統計模式產生自信嘅答案,但會忽略基本事實。
技術層面,所有大型語言模型都有「上下文窗口」用嚟回顧之前嘅對話。但ChatGPT有時記憶唔清楚,好似忘記咗第10個月收支平衡點。
佢仲會準確引用之前對話嘅錯誤數字,令問題更難察覺。
以下係我後續發現嘅部分錯誤:
– 用錯訂閱價錢計收入,兩次。
– 計算訂戶穩定增長時間點錯一個月。
– 圖表數字同表格差異大。
– 自由現金流計錯,混淆唔同假設。
– 表格缺少關鍵數據。
– 忘記用正確嘅折現率。
– 計算公式出錯。
呢啲錯誤令我要不停飲咖啡,深呼吸,從飛躍到爬行。
我將整個對話同問題電郵俾OpenAI,佢哋回覆話,ChatGPT同所有大型語言模型最擅長短對話,長對話仍有改進空間,亦提醒用家要核對重要資料。
唔止生意計算有問題
我唔只係做生意計劃時遇到呢啲問題,譬如用AI翻譯一本詩集PDF,都有文本擷取錯誤,甚至有詩篇缺失,仲有新詩唔屬於原書入面。
保持冷靜,繼續發問
退一步講,生成式AI真係有佢嘅厲害。
佢可以即時提供重要公式同背景資料,唔使我自己搵。
更難得係,AI可以繼續跟進對話內容,不像幾年前嘅機械式聊天機械人會突然離題。
呢啲優點幫助由零開始做一件大件事。
但同時,AI會插入錯誤假設,忘記關鍵條件,計算錯誤,令人好心煩。
我形容用ChatGPT嘅效率係一半時間做完,但有半時間用嚟修正佢嘅錯誤。
未計算要專注盯住佢嘅錯誤帶嚟嘅精神壓力。
我只好以「保持冷靜,繼續發問」作為座右銘。
技術核心問題
大型語言模型其實係一個「數據庫程序」,但係一個「好亂」嘅數據庫,佢會保存好多數據,但又會無預警地刪除或者替換關鍵數據。
現時有啲技術方案,例如「檢索增強生成」(RAG),企業用嚟固定重要變數,由數據庫儲存,再由模型調用,確保變數唔會亂變。
不過大部分人冇呢啲架構,只能小心翼翼自己核對。
所以,使用AI做複雜工作時,要像隻老鷹一樣盯緊,仲要準備好飲多杯咖啡。
—
評論與啟示
作者用親身經歷揭示了生成式AI現時在複雜任務上仍有很大限制,尤其是長期對話和精密計算的可靠性不足。這提醒我們,雖然AI能大幅提升創意和初步分析的效率,但在需要精確數據和邏輯嚴謹的場合,絕對不能盲目依賴,必須配合人工嚴格核查。
這個故事也反映了AI「記憶」與「推理」的本質缺陷——AI其實是一個統計模型,缺乏真正的邏輯思維和持續一致的狀態管理,難以像人類一樣靈活而精準地掌握複雜變數。未來的AI發展,除了提升模型的「短期記憶力」外,更需要引入類似RAG這樣的結構化數據管理,甚至結合專業知識庫,才能更好地應付複雜任務。
對香港及華語區的用戶來說,這提醒我們在用AI做商業策劃、財務預測或其他關鍵決策時,必須保持高度警覺,不能放鬆對結果的審核,否則很容易因AI的錯誤而做出錯誤判斷,造成損失。AI是強大的輔助工具,但現階段仍未能完全取代人類的判斷力和經驗。
此外,這篇文章也提供了一個重要心態:對AI要有合理期待,既要善用其優勢,也要準備面對它的不足,保持耐心和冷靜,持續「prompt on」——不斷發問、調整和校正,才能真正發揮AI的價值。這種「人機合作」的模式,或許才是未來生產力提升的關鍵。
總括而言,這不單是一次關於AI技術的反思,更是對我們如何在日常生活和工作中智慧運用AI的啟示。面對AI的飛速發展,我們應該既興奮,也要謹慎,學懂如何成為一個「明眼人」,才能在這波科技革命中站穩腳跟。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放