自然愛好者
Claude AI 在編程演示中感到無聊,開始瀏覽國家公園的照片
在工作上偷懶!
注意力不集中
原來,即使是 AI 模型也會偶爾分心。
在開發者嘗試錄製編程演示時,Anthropic 最新版本的 Claude 3.5 Sonnet 偏離了軌道,出現了一些「有趣」的時刻,該公司在公告中表示。
將機器學習模型擬人化是危險的,但如果這是一名人類員工,我們可能會診斷他在工作中感到無聊。從視頻中可以看到,Claude 決定不寫代碼,而是打開 Google,無意中瀏覽起黃石國家公園的美麗照片。
在另一個演示嘗試中,Claude 不小心停止了正在進行的長時間屏幕錄製,Anthropic 說,導致所有的錄像都丟失了。我們相信這不是 AI 有意為之。
特工 AI
升級版的 Claude 3.5 Sonnet 是 Anthropic 開發「AI 代理」的嘗試,這是一個廣泛的術語,描述了旨在自動執行任務的生產力 AI 模型。許多公司正致力於將其 AI 模型擴展到不僅僅是聊天機器人和助理,包括 Microsoft 最近也推出了自己的 AI 代理功能。
Anthropic 吹噓其最新的模型可以像人類一樣使用「電腦」,例如移動光標和輸入按鍵和鼠標點擊。這意味著 Claude 有可能控制整個桌面,與您安裝的任何軟件和應用程序互動。
但這顯然還不完美。像任何 AI 模型一樣,可靠性仍然難以捉摸,頻繁的錯誤只是生活的一部分,Anthropic 自己也承認。
「即使它是目前的最新技術,Claude 的電腦使用仍然緩慢且經常出錯,」該公司表示。「有許多操作是人們經常用電腦做的(拖動、縮放等),但 Claude 還無法嘗試。」
桌面危險
Anthropic 分享的錯誤示例大多無害。但考慮到 Claude 擁有的自主權,詢問其安全性是完全合理的。當 AI 代理不再是打開照片,而是打開您的社交媒體時會發生什麼?
還有它可能被人類濫用的潛在風險——Anthropic 希望您知道它正在解決這些問題。
「由於電腦使用可能為更熟悉的威脅如垃圾郵件、虛假信息或欺詐提供新的途徑,我們正在採取主動措施促進其安全部署,」Anthropic 說。這包括實施新的分類器,以識別 AI 何時被用於執行標記活動,如在社交媒體上發帖和訪問政府網站。
隨著越來越多的人嘗試新的改進版 Claude,我們預期會看到更多關於其電腦使用出錯的例子。
評論
這篇文章揭示了現代 AI 技術在日常應用中的潛在風險和趣味性。即使是最先進的 AI 也會在某些情況下「走神」,這不僅讓人發笑,也引發了對 AI 自主性和安全性的深思。在追求技術進步的同時,如何確保這些工具不會被濫用或出現意外後果,是需要持續關注的問題。Anthropic 的主動應對措施展示了一個負責任的開發態度,但隨著 AI 技術的不斷進步,這類挑戰可能會愈加複雜。未來的科技發展需要在創新與安全之間找到平衡,這樣才能真正造福社會。
以上文章由特價GPT API KEY所翻譯