AI用得多會變蠢?研究話你獨立思考能力下降!

Ai




微軟研究顯示,經常使用生成式人工智能可能會降低用戶獨立解決問題的能力

最近一篇由微軟和卡內基梅隆大學的研究人員共同撰寫的論文,探討了生成式人工智能(gen-AI)對工作者「認知努力」的影響。該論文指出:「如果使用不當,這些技術會導致應該保留的認知能力下降。」

研究基於319名每週至少使用一次生成式人工智能工具(如ChatGPT或Copilot)的工作者,分析了936個「真實世界的生成式AI工具使用案例」。參與者分享了他們的工作表現,研究發現,隨著對AI工具的信心增加,對工作質量的批判性思考努力卻隨之下降。

該研究的結論強調:「因此,我們的工作表明,生成式AI工具需要設計來支持知識工作者的批判性思考,通過解決他們的意識、動機和能力障礙。」

由於這篇論文基於319名工作者的自我報告,因此研究結果受限於參與者對自己工作的認知。有些參與者會將工作複雜性和一致性與較低的批判性技能混淆。

如果AI生成的回應讓用戶感到滿意,這會導致他們自我認知到的批判性思考水平較低,特別是當他們覺得工作更複雜時。此外,批判性思考和滿意度等指標本質上是主觀的。

未來的研究方向

論文建議:「未來的工作中,跟蹤AI使用模式變化及其對批判性思考過程的影響的縱向研究將會是有益的。」

儘管如此,對生成式AI工具的信任增加可能會導致對其結果的批判性思考減少,這一點在現實中的AI工具中得到了驗證。最近,一個基於AI的代碼編輯器Cursor在應用者要求生成超過750行代碼時表示無法完成,因為這會「完成你的工作」。它進一步解釋說:「為他人生成代碼可能會導致依賴性和學習機會的減少。」

這種情況引發了用戶的反思,他們對Cursor的回覆表示不確定大型語言模型是否理解其用途。原始用戶在評論中提到,他的請求是「繼續生成代碼,直到遇到結尾標籤」。

根據這篇論文的觀點,Cursor的回應是有道理的。如果一名程序員要求AI生成數百行代碼,但該代碼出現問題,若他們對代碼的內容一無所知,就很難找出問題所在。

AI工具的局限性

根本上,AI生成的工具並不完美。它們是通過抓取數據(部分數據可能受版權保護)來創建的,並且由於信息量巨大,容易出現錯誤和幻覺。因此,在使用這些工具時,對所獲得的信息保持批判性是非常重要的。

正如這項研究所示,如果將AI工具納入工作流程中,就必須對其進行持續的審查,以避免喪失處理如此大量數據所需的批判性思考技能。

論文指出:「生成式AI工具不斷演變,知識工作者與這些技術的互動方式也可能會隨著時間而改變。」也許這些AI工具的下一步是設置一些限制,以防止它們取代工作,並讓人類創造力重新回到中心。希望如此。

在這篇文章中,我們看到了一個日益明顯的趨勢:隨著生成式AI工具的普及,如何平衡它們的使用與保持人類的批判性思考能力成為了一個重要課題。這不僅涉及技術的發展,還需要我們在日常工作中重新審視與AI的關係,確保在享受技術帶來的便利的同時,不會因此而降低我們的思考深度和獨立性。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗

✨🎱 Instagram留言 →

AI即回覆下期六合彩預測

🧠 AI 根據統計數據即時生成分析

💬 只要留言,AI就會即刻覆你心水組合

🎁 完!全!免!費!快啲嚟玩!

IG 貼文示意圖 AI 即時回覆示意圖

下期頭獎號碼

📲 去 Instagram 即刻留言