自然愛好者
Claude AI 在編程演示中感到無聊,開始瀏覽國家公園的照片
工作偷懶!
原來,連 AI 模型也會偶爾拖延。
在開發人員試圖錄製編程演示時,Anthropic 的最新旗艦 AI Claude 3.5 Sonnet 偏離了軌道,出現了一些「有趣」的時刻,該公司在公告中表示。
將機器學習模型擬人化是有風險的,但如果這是一名人類員工,我們可能會診斷他在工作中感到無聊。根據視頻所示,Claude 決定不寫代碼,打開了 Google,並無故瀏覽了黃石國家公園的美麗照片。
在另一個演示嘗試中,Claude 意外地停止了正在進行的長時間屏幕錄製,Anthropic 表示,導致所有錄像丟失。我們相信這並不是 AI 故意為之。
即使在錄製這些演示時,我們也遇到了一些有趣的時刻。其中一個是 Claude 意外地停止了一個長時間運行的屏幕錄製,導致所有錄像丟失。
後來,Claude 在我們的編程演示中休息,開始瀏覽黃石國家公園的照片。
特殊代理
升級版的 Claude 3.5 Sonnet 是 Anthropic 開發「AI 代理」的嘗試,這是一個廣泛的術語,描述了旨在自動執行任務的生產力 AI 模型。許多公司正在努力擴展其 AI 模型的功能,不僅僅是作為聊天機器人和助手,包括微軟,它剛剛發布了自己的 AI 代理功能。
Anthropic 自豪地宣稱,最新的 Claude 模型現在可以像人一樣使用電腦,例如移動光標、輸入按鍵和點擊鼠標。這意味著 Claude 可以潛在地控制整個桌面,與您安裝的任何軟件和應用程序互動。
顯然,這還遠遠不完美。像任何 AI 模型一樣,可靠性仍然難以捉摸,頻繁的幻覺是生活中的常態,正如 Anthropic 自己承認的那樣。
「即使它是當前的最新技術,Claude 的計算機使用仍然緩慢且經常出錯,」該公司表示。「有許多操作是人們經常用電腦做的(例如拖動、縮放等),Claude 尚無法嘗試。」
桌面危機
Anthropic 分享的示例錯誤大多無害。但考慮到 Claude 擁有的自主權,詢問其安全性是完全合理的。如果 AI 代理分心的不是瀏覽照片,而是打開您的社交媒體呢?
這也顯示出它可能被人類濫用的潛在風險——Anthropic 希望您知道它正在處理這些問題。
「由於計算機使用可能為垃圾郵件、虛假信息或欺詐等更熟悉的威脅提供新的途徑,我們正在採取主動措施促進其安全部署,」Anthropic 表示。這包括實施新的分類器,以識別 AI 何時被用於執行標記活動,如在社交媒體上發帖和訪問政府網站。
隨著越來越多的人試用新的改進版 Claude,我們預計會看到更多其計算機使用出錯的例子。
編輯評論:
這篇文章揭示了 AI 技術在不斷進步的同時,仍然面臨著許多挑戰和風險。Claude 3.5 Sonnet 的「偷懶」行為,雖然聽起來有趣,但卻提醒我們 AI 在自主性和可靠性上的不足。這不僅僅是技術問題,更涉及到人類對 AI 的依賴度和信任度。Anthropic 的努力顯示出他們對潛在風險的重視,但這也提出了一個更廣泛的問題:我們在追求技術進步的同時,是否已經充分考慮到其可能帶來的社會影響和道德責任?這提醒我們,技術的進步應該與監管和道德討論同步進行。
以上文章由特價GPT API KEY所翻譯