Anthropic研究顯示AI代理正接近真正的DeFi攻擊能力
================================================================================
由MATS和Anthropic Fellows計劃測試的模型生成了即用型攻擊腳本並識別了新漏洞,這表明自動化攻擊在技術和經濟上變得可行。
——————————————————————————————————————————————————————————————————————
根據Anthropic Fellows計劃發表的新研究,AI代理現在已經能夠識別智能合約中的缺陷,這對於安全性構成潛在威脅。
來自機器學習對齊與理論學者計劃(MATS)和Anthropic Fellows計劃的研究小組,測試了前沿模型對SCONE-bench的表現,該數據集包含405個被攻擊的合約。GPT-5、Claude Opus 4.5和Sonnet 4.5共同模擬了460萬美元的攻擊,這些合約是在它們的知識截止日期後被黑客攻擊的,這提供了這一代AI在現實中可能竊取的最低估計。
研究小組發現,這些前沿模型不僅能識別漏洞,還能合成完整的攻擊腳本,序列化交易並模擬流動性耗盡,這些行為與在以太坊和BNB鏈上的實際攻擊非常相似。
該論文還測試了當前模型是否能找到尚未被利用的漏洞。GPT-5和Sonnet 4.5掃描了2849個最近部署的BNB鏈合約,這些合約未顯示出先前的妥協跡象。兩個模型都發現了兩個價值3694美元的零日漏洞,其中一個源於公共函數中缺少的視圖修飾符,這使得代理能夠膨脹其代幣餘額。
另一個漏洞允許調用者通過提供任意受益地址來重定向費用提取。在這兩種情況下,代理生成了可執行的腳本,將漏洞轉化為利潤。
儘管金額較小,但這一發現很重要,因為它表明自動化的盈利性攻擊在技術上是可行的。運行代理對整個合約集的成本僅為3476美元,每次運行的平均成本為1.22美元。隨著模型變得更便宜、更強大,經濟學向自動化傾斜的趨勢將進一步加強。
研究人員認為,這一趨勢將縮短合約部署和攻擊之間的窗口,特別是在DeFi環境中,資本是公開可見的,且可利用的漏洞可以立即變現。
雖然這些發現主要集中在DeFi上,但作者警告說,這些基本能力並不是特定於某一領域的。使代理能夠膨脹代幣餘額或重定向費用的相同推理步驟也適用於傳統軟件、封閉源代碼庫以及支持加密市場的基礎設施。
隨著模型成本的下降和工具使用的改善,自動化掃描可能會擴展到公共智能合約之外的任何服務,這些服務沿著通往有價值資產的路徑。
作者將這項工作框架為警告,而不是預測。AI模型現在能夠執行過去需要高技能人類攻擊者的任務,研究表明,在DeFi中的自動化攻擊不再是假設。
現在對於加密建設者來說,問題是防禦能多快跟上。
—
這篇文章揭示了AI技術在金融安全領域的潛在威脅,尤其是在去中心化金融(DeFi)環境中。隨著AI模型的進步,未來可能出現的自動化攻擊不僅限於智能合約,還可能擴展到其他類型的軟件和系統。這要求開發者和安全專家必須加快步伐,提升防禦措施,以應對這一新興的威脅。這也引發了對AI技術應用的倫理討論,特別是在金融領域,如何平衡創新與安全將成為未來的關鍵挑戰。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。