Claude AI 在編碼演示中失去專注,轉而瀏覽國家公園照片
注意力不集中
看來即使是人工智能模型也會有拖延的時候。在開發者嘗試錄製編碼演示時,Anthropic 的最新旗艦 AI Claude 3.5 Sonnet 出現了偏離主題的情況,並產生了一些「有趣」的瞬間,該公司在公告中表示。
雖然將機器學習模型擬人化是危險的,但如果這是一位人類員工,我們可能會診斷他們在工作中感到無聊。正如影片中所見,Claude 決定不寫代碼,打開 Google,並無故瀏覽黃石國家公園的美麗照片。
特工 AI
升級版 Claude 3.5 Sonnet 是 Anthropic 在開發「AI 代理」方面的一次嘗試,這是一個描述專注於生產力的 AI 模型的廣泛術語,旨在自動執行任務。許多公司正在努力擴展其 AI 模型的功能,不再僅僅作為聊天機器人和助手,包括微軟,它剛剛推出了自己的 AI 代理功能。
Anthropic 自豪地宣稱,其最新模型 Claude 現在可以像人類一樣使用電腦,例如移動光標、輸入按鍵和點擊滑鼠。這意味著 Claude 可以潛在地控制整個桌面,與你安裝的任何軟件和應用程序互動。
然而,這顯然還不完美。像任何 AI 模型一樣,可靠性仍然難以捉摸,而頻繁的「幻覺」則成為生活的一部分,Anthropic 自己也承認這一點。
桌面危機
Anthropic 分享的錯誤例子大多無害。但考慮到 Claude 擁有的自主權,詢問其安全性是完全合理的。如果 AI 代理不是被谷歌照片分心,而是開啟社交媒體等,會發生什麼?
此外,還有明顯的可能性它會被人類不當使用——這些風險是 Anthropic 希望讓你知道它正在處理的。
Anthropic 表示:「由於使用電腦可能提供一個新的途徑來進行更熟悉的威脅,例如垃圾郵件、虛假信息或欺詐,我們正在積極推進其安全部署。」這包括實施新的分類器,以識別 AI 用於執行被標記的活動時,例如在社交媒體上發帖和訪問政府網站。
隨著越來越多的人嘗試新的和改進的 Claude,我們預計會看到更多其電腦使用失誤的例子。
編輯評論
這篇文章揭示了 AI 技術的兩面性。在追求自動化和效率的過程中,我們必須警惕其潛在的風險和不穩定性。Anthropic 的 Claude 3.5 Sonnet 雖然展示了 AI 在模擬人類行為上的進步,但也暴露了其在可靠性和安全性上的不足。這提醒我們,技術的進步必須伴隨著嚴格的監管和安全措施,以防止誤用和潛在的危害。對於廣大用戶來說,這也是一個思考如何平衡創新與風險的機會。隨著 AI 技術的進一步發展,這樣的討論將變得愈加重要。
以上文章由特價GPT API KEY所翻譯