AI自動攻擊DeFi風險急升!智能合約唔再安全?

Ai




Anthropic研究顯示AI代理人正逼近真實DeFi攻擊能力

來自Anthropic Fellows計劃及ML Alignment & Theory Scholars (MATS)的最新研究指出,人工智能代理人已經能夠識別並利用智能合約中的漏洞,甚至能夠自動生成完整的攻擊腳本,模擬真實的DeFi攻擊行為。這標誌著自動化攻擊不僅在技術上可行,且在經濟上也逐漸合算。

研究團隊利用SCONE-bench資料集——內含405個曾被攻擊的智能合約——測試了包括GPT-5、Claude Opus 4.5及Sonnet 4.5在內的先進AI模型。這些模型成功模擬出總值約460萬美元的攻擊,展示了AI在DeFi領域的攻擊潛力。

更令人關注的是,這些AI不僅能找出已知漏洞,還能在BNB Chain上新部署的2,849個合約中,發現兩個尚未被利用的零日漏洞,模擬獲利達3,694美元。這些漏洞包括缺失的視圖修飾器導致代幣餘額被非法膨脹,以及可任意更改提款地址的回調函數。AI不單識別漏洞,還能生成可執行的攻擊腳本,將漏洞轉化為利潤。

執行整個合約集的掃描成本僅約3,476美元,單次執行成本平均1.22美元。隨著AI模型成本下降及能力提升,攻擊自動化的經濟效益將更明顯,縮短從合約部署到被攻擊的時間窗口,尤其在資本公開透明且漏洞易即時變現的DeFi環境中。

研究者警告,這種技術能力並非僅限於DeFi。相同的邏輯推理可應用於傳統軟件、封閉源碼系統及支撐加密市場的基礎設施。自動化漏洞掃描將可能擴展至整個軟件生態系,對資產安全構成更廣泛威脅。

研究團隊將此視為一個警示,而非僅是預測:AI已經能替代過去需要高技能人類駭客的任務,DeFi自動化攻擊不再是理論,而是迫在眉睫的現實。加密貨幣生態系構建者面對的挑戰是,防禦能否跟上AI攻擊腳步的速度。

評論與深入分析

這項研究揭示了AI技術在區塊鏈安全領域的雙刃劍效應。一方面,AI可被用作安全審計工具,快速識別漏洞,協助修補合約缺陷;但另一方面,當攻擊者掌握同等甚至更強的AI技術,將使自動化駭客攻擊成為現實,極大提升攻擊規模與效率。

尤其在DeFi領域,資金高度集中且公開透明,漏洞一旦被發現,瞬間可能被AI自動利用,造成巨額損失。這種「攻擊先發制人」的風險,對於新部署合約的安全審查提出更高要求,也催生了對更先進防禦機制的迫切需求。

此外,該研究指出AI攻擊能力將擴散至更廣泛的軟件生態,意味著不僅是區塊鏈,傳統IT基礎設施、物聯網甚至金融系統都可能遭受類似自動化攻擊。這要求安全領域必須重新思考現有的防禦策略,從被動監控轉向主動預警與快速響應。

對香港及全球用戶而言,這警示了加密投資與使用智能合約的潛在風險。投資者和開發者需加強風險意識,推動更嚴謹的安全審核流程,甚至考慮引入AI輔助的安全防護方案,以應對未來可能的AI驅動攻擊浪潮。

最後,這項研究也提醒監管機構和業界,AI技術的迅速發展不應被忽視。制定相應的安全標準、促進跨界合作與資訊共享,將是維護整個加密生態健康發展的關鍵。面對AI帶來的技術挑戰,唯有全方位、多層次的防禦策略才能有效保障用戶資產安全。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。