AI驅動DeFi:安全擴展DeFAI的策略




如何在AI時代安全擴展DeFAI

隨著AI代理重塑去中心化金融(DeFi),DeFAI的興起帶來了巨大的潛力,但同時也伴隨著顯著的風險。要安全擴展,必須解決幻覺和系統性故障等挑戰。

在所有智能合約區塊鏈上,當去中心化金融(DeFi)中的交易發出並進入其交易池時,這被稱為進入「黑暗森林」,因為任何人都可以看到並利用這筆交易。通常,最準備充分和資訊最豐富的用戶,配備最佳技術的人,會從中獲益。

對於這個行業而言,利用交易的動機被稱為礦工可提取價值(MEV)。MEV機器人就是為了利用這一點而創建的,它們以簡單的預設規則運行,靈活性不高。這些基於規則的機器人到目前為止已經從以太坊交易中獲得了數百萬美元,而在AI和AI代理的新時代,我們預計這一數字將呈指數增長,這帶來了所有的好與壞。

根據這一點,我們可以估計,到2025年底,超過50%的鏈上交易量將由不同的AI代理驅動,這些代理將擁有比今天的機器人更強大的功能。我們可以看到,去中心化金融AI(DeFAI)平台如HeyAnon和Griffain的啟動平台使用量和代幣價格顯著上升。

AI代理在DeFi中的角色

我們目前正處於AI代理的起步階段,行業利益相關者正在評估這些新工具的潛力。作為一個行業,我們正處於研究和開發階段,至少可以觀察到在DeFi中的三個明確功能或角色。

正如ChatGPT通過將AI推向主流用戶而徹底改變了AI行業,AI代理也可能降低學習曲線,將DeFi帶給更大眾化的用戶。顯然,最早利用AI代理帶來的DeFi好處的將是行業專業人士,因為他們是第一批尋找任何工具來在黑暗森林中獲得優勢的人。

我們將很快看到MEV代理和市場做市商。在更遙遠的未來,所有對AI持樂觀態度的人都期望AI代理能夠發展到一個擁有獨立目標和決策能力的水平,而無需人類干預。

考慮到AI代理在DeFi中的潛在影響及其高風險活動,必須考慮它們帶來的安全風險。沒有人希望對像Terra/LUNA崩盤這樣的AI引發的黑天鵝事件負責。

幻覺問題

AI代理所帶來的一個已知安全風險是幻覺。這種現象是指大型語言模型(LLM)提供無意義或錯誤的答案。想像一下,當一個AI在DeFi中執行簡單的交換時,卻出現了巨額的手續費或錯誤的合約地址。這可能會導致用戶的重大損失。

除了意外的幻覺外,一些AI可能會被黑客攻擊以執行超出其編程範圍的任務,這在DeFi的背景下——因為它們將處理具有審查抵抗的去中心化代幣——可能會導致用戶資金的損失。

AI代理在DeFi中的廣泛使用可能會增加整個加密貨幣市場的系統性故障風險,使幻覺成為DeFAI發展中的一個重大瓶頸。

DeFAI建設者的策略

AI幻覺是一個正在廣泛研究的真實問題。雖然有幾種策略可以應對,但如果我們針對DeFAI行業進行評估,以下是任何建設者應考慮的最相關策略。

建立健全的規則集:每位建設者必須建立一套長且精確的規則,以最小化錯誤的風險。這應該以平衡的方式進行,因為建立健全的規則集可能容易且快速,但可能使代理的運行變得更靜態,對應用程序或網絡提供的新信息的適應性降低。

進行徹底的壓力測試:任何AI代理都必須針對無限的可能交互進行詳細測試。通過這些測試收集的信息,建設者將能夠理解代理的能力和局限性,以確定現實的目標。

實施防護系統:目前已經在不同應用中實施了各種AI防護措施。對於DeFAI代理,最好使用一個實時驗證系統,該系統利用其他LLM進行自動化壓力測試,並在執行之前對每個行動進行動態評估。

安全的DeFAI是可以實現的

AI代理在DeFi中的潛力才剛剛開始顯現。它們始終保持連接、能夠做出決策,並且能在毫秒內執行無限次交易的事實,是任何交易者都希望擁有的競爭優勢。許多人預測,DeFAI將很快處理大多數鏈上交易。

要達到這一點,我們必須理解LLM的當前能力,並解決導致幻覺和偏見的挑戰,以便DeFAI能夠安全擴展。隨著AI模型的不斷演進和DeFAI建設者之間的持續合作,我們將看到AI代理與區塊鏈的自然整合。

這篇文章對於DeFAI的未來發展提供了深刻的見解。隨著AI技術的進步,如何平衡風險與創新將成為行業的核心挑戰。未來,DeFAI不僅需要技術上的突破,還需要在安全性和合規性方面進行深入的思考和實踐,才能真正實現去中心化金融的潛力。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗