如何在AI時代安全擴展DeFAI
隨著AI代理重塑去中心化金融(DeFi),DeFAI的興起帶來了巨大的潛力——同時也伴隨著顯著的風險。安全擴展的關鍵在於解決如幻覺和系統性失敗等挑戰。
在所有智能合約區塊鏈上,當一筆交易在去中心化金融中發出並進入其交易池時,這被稱為進入“黑暗森林”,因為任何人都可以看到並利用它。通常,最準備充分、信息最豐富的用戶,配備最佳技術的人,會從中獲利。
對於這個行業來說,利用交易的動機被稱為礦工可提取價值(MEV)。MEV機器人便是為了利用這一點而創建的,它們以簡單的預設規則運行,靈活性不高。這些基於規則的機器人至今已從以太坊交易中獲得了數百萬美元,而在AI和AI代理的新時代,我們預計這一數字將呈指數增長——這一切都伴隨著好壞參半的後果。
根據估算,到2025年底,超過50%的鏈上交易量將由不同的AI代理驅動,這些代理將擁有比當前機器人更強大的功能。我們可以看到,去中心化金融AI(DeFAI)平台如HeyAnon和Griffain的啟動平台使用率和代幣價格顯著上升。
AI代理在DeFi中的角色
我們目前正處於AI代理的起步階段,行業利益相關者正在評估這些新工具的潛力。作為一個行業,我們處於研究和開發階段,可以觀察到至少三個在DeFi中的具體功能或角色。
正如ChatGPT通過將AI帶入主流用戶而徹底改變了AI行業,AI代理也可能縮短學習曲線,讓DeFi更接近大眾。顯然,最早能夠利用AI代理為DeFi帶來的好處的將是行業專業人士,因為他們是第一批尋求任何工具以在黑暗森林中獲得優勢的人。
不久的將來,我們將看到MEV代理和代理市場製造商。對於那些看好AI的我們來說,所有人都期望AI代理能夠發展到擁有獨立目標和決策能力的水平,而無需人類干預。
鑒於AI代理在DeFi中的潛在影響及其高風險活動,必須考慮它們帶來的安全風險。沒有人希望對AI觸發的黑天鵝事件負責,例如Terra/LUNA崩潰。
幻覺問題
AI代理帶來的一個已知安全風險是幻覺。這種現象是指大型語言模型(LLM)提供無意義或錯誤的答案。因此,想像一下,一個AI在DeFi中執行簡單的交換,但卻幻覺出一個巨大的佣金或合約地址。這可能會導致用戶遭受重大損失。
除了意外的幻覺外,一些AI可能會被黑客入侵,執行超出其編程範圍的任務,這在DeFi的背景下——它們將處理具有抗審查性的去中心化代幣——可能會轉化為用戶資金的損失。
AI代理在DeFi中的廣泛使用可能會增加整個加密市場的系統性失敗風險,使得幻覺成為DeFAI發展中的一個重要瓶頸。
DeFAI建設者的策略
AI幻覺是一個正在廣泛研究的實際問題。雖然有幾種策略可以應對它們,但如果我們針對DeFAI行業進行評估,以下是任何建設者應考慮的最相關策略。
建立穩健的規則集:每個建設者必須建立一套長而精確的規則,以最小化錯誤的風險。這應該以平衡的方式進行,因為建立穩健的規則集可能容易且快速,但可能會使代理的運行變得更為靜態,難以適應應用程序或網絡提供的新信息。
進行全面的壓力測試:任何AI代理必須針對無限可能的交互進行詳細測試。通過從這些測試中收集的信息,建設者將能夠理解代理的能力和限制,以確定現實的目標。
實施防護系統:目前在不同應用中正在實施各種AI防護措施。對於DeFAI代理,最好使用實時驗證系統,利用其他LLM進行自動化壓力測試,並在執行之前對每個行動進行動態評估。
安全的DeFAI是可以實現的
AI代理在DeFi中的潛力才剛剛開始顯現。它們始終保持連接,能夠做出決策並在毫秒內執行無數交易,這是任何交易者都希望擁有的競爭優勢。有許多預測認為,DeFAI將很快處理大多數鏈上交易。
要達到這一點,我們必須理解當前LLM的能力,並解決導致幻覺和偏見的挑戰,以便DeFAI能夠安全擴展。隨著AI模型的持續演變以及DeFAI建設者之間的持續合作,我們將看到AI代理與區塊鏈的自然整合。
在這篇文章中,Karan Sirdesai提出了AI在DeFi中的潛力和挑戰,特別是幻覺問題的風險。這不僅是對技術的探討,更是對未來金融生態系統的深刻反思。隨著DeFi的發展,如何在創新與風險之間找到平衡,將成為行業參與者必須面對的重要課題。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放