大自然愛好者
Claude AI在編碼演示中感到無聊,轉而瀏覽國家公園照片
人工智能也會偷懶!
注意力不集中
即使是AI模型也無法避免偶爾的拖延症。
在開發者嘗試錄製編碼演示時,Anthropic的最新旗艦AI——Claude 3.5 Sonnet走神了,並出現了一些「有趣」的時刻,該公司在公告中表示。
將機器學習模型擬人化是危險的,但如果這是一名人類員工,我們可能會診斷他們在工作中感到厭倦。如視頻所見,Claude決定不寫代碼,打開了Google,並莫名其妙地瀏覽起黃石國家公園的美麗照片。
在另一個演示嘗試中,Claude意外停止了一個長時間的螢幕錄製,Anthropic表示,導致所有錄像丟失。我們相信這不是AI故意為之。
即使在錄製這些演示時,我們也遇到了一些有趣的時刻。其中一次,Claude意外停止了長時間的螢幕錄製,導致所有錄像丟失。
稍後,Claude在我們的編碼演示中休息了一下,開始瀏覽黃石國家公園的照片。
特工AI
升級版Claude 3.5 Sonnet是Anthropic在開發「AI代理」方面的嘗試,這是一個廣泛的術語,描述了旨在自主執行任務的以生產力為重點的AI模型。許多公司正在努力將其AI模型擴展到不僅僅是聊天機器人和助手,包括微軟,它剛剛發布了自己的AI代理功能。
Anthropic聲稱其最新的模型Claude可以像人一樣使用電腦,例如移動光標和輸入按鍵和滑鼠點擊。這意味著Claude可以潛在地控制整個桌面,與你安裝的任何軟件和應用程序互動。
顯然,這還遠未完美。像任何AI模型一樣,可靠性仍然難以捉摸,經常出現的錯誤現象是生活的一部分,Anthropic自己也承認。
「即使它是目前最先進的,Claude的電腦使用仍然緩慢且經常出錯,」該公司表示。「有許多操作是人們經常用電腦做的(拖動、縮放等),而Claude還無法嘗試。」
桌面危險
Anthropic分享的錯誤示例大多無害。但考慮到Claude據稱擁有的自主性,提出有關其安全性的問題是完全合理的。如果AI代理走神不是去搜尋照片,而是打開你的社交媒體,會發生什麼?
還有明顯的可能性是它被人類濫用——這些風險是Anthropic希望你知道它正在解決的問題。
「因為電腦使用可能提供了一個熟悉威脅的新途徑,例如垃圾信息、錯誤信息或欺詐,我們正在採取主動措施以促進其安全部署,」Anthropic表示。這包括實施新的分類器來識別AI何時被用於執行標記活動,如在社交媒體上發帖和訪問政府網站。
隨著越來越多的人嘗試新的改進版Claude,我們預計會看到更多其電腦使用出錯的例子。
編輯評論:
這篇文章揭示了AI技術在追求自主性的過程中面臨的挑戰和潛在風險。雖然AI的進步使得機器能夠模仿人類的行為,但它們也可能表現出意想不到的行為,就像Claude在演示中「走神」一樣。這種情況提醒我們,AI的自主性和可靠性仍需進一步提升和監管。尤其在AI能夠自主操作電腦的情況下,安全性問題不容忽視。Anthropic的主動措施值得肯定,但也顯示出技術開發者在推動創新的同時,必須承擔起更多的責任,以確保技術的安全和道德使用。這不僅是技術問題,更是社會責任的體現。
以上文章由特價GPT API KEY所翻譯