DeFAI:AI驱动的DeFi面临新安全挑战
快速阅读: 去中心化金融(DeFi)最新创新DeFAI,利用AI提高效率,但也带来新的安全挑战,如模型操纵和数据中毒,需加强审计和透明度以保障用户安全。
自成立以来,去中心化金融(DeFi)生态系统一直以创新著称,从去中心化交易所(DEXs)到借贷协议、稳定币等。最新的创新是DeFAI,即由人工智能驱动的DeFi。在DeFAI中,通过大规模数据集训练的自主机器人能够显著提高效率,执行交易、管理风险并参与治理协议。
然而,与所有基于区块链的创新一样,DeFAI也可能引入新的攻击途径,加密社区必须解决这些问题以提高用户安全。这需要深入分析伴随创新而来的漏洞,以确保安全性。
DeFAI代理超越了传统智能合约
在区块链中,大多数智能合约通常基于简单的逻辑运行,例如,“如果X发生,则执行Y”。由于其内在透明性,这些智能合约可以被审计和验证。相比之下,DeFAI偏离了传统的智能合约结构,因为其AI代理本质上是概率性的。这些AI代理根据不断演变的数据集、先前输入和上下文作出决策。它们可以解释信号并适应变化,而不是对预设事件作出反应。尽管有人认为这一过程带来了复杂的创新,但它也因其固有的不确定性,成为错误和利用的温床。
到目前为止,早期版本的人工智能驱动的交易机器人在去中心化协议中的应用已经显示出向DeFAI转变的趋势。例如,用户或去中心化自治组织(DAOs)可以部署一个机器人来扫描特定的市场模式,并在几秒钟内执行交易。虽然听起来很有创新性,但大多数机器人仍然运行在Web2基础设施上,将集中式故障点的脆弱性带入Web3。
DeFAI创造新的攻击面
行业不应因将AI融入去中心化协议而过于兴奋,因为这种转变可能会产生尚未准备好的新攻击面。恶意行为者可以通过模型操纵、数据中毒或对抗性输入攻击来利用AI代理。
例如,一个被训练用于识别DEX间套利机会的AI代理可能受到威胁。攻击者可以篡改其输入数据,导致代理执行亏损交易,甚至耗尽流动性池的资金。此外,受损的代理可能会误导整个协议相信虚假信息,或成为更大规模攻击的起点。
这些风险因大多数AI代理目前是黑箱而加剧。即使是开发者,他们创建的AI代理的决策能力也可能不透明。这些特性与建立在透明度和可验证性基础上的Web3精神背道而驰。
安全是共同的责任
鉴于这些风险,人们可能会对DeFAI的影响提出质疑,甚至呼吁暂停这一发展。然而,DeFAI很可能继续进化并获得更广泛的应用。因此,行业需要相应地调整其安全方法。涉及DeFAI的生态系统可能需要一个标准的安全模型,其中开发者、用户和第三方审计师共同确定维持安全和减轻风险的最佳手段。
AI代理应像其他任何链上基础设施一样,受到怀疑和审查。这意味着要严格审核其代码逻辑,模拟最坏情况,并通过红队演练暴露攻击路径,防止恶意行为者利用它们。此外,行业必须制定透明度标准,如开源模型或文档。
无论行业如何看待这一转变,DeFAI都提出了关于去中心化系统信任的新问题。当AI代理能够自主持有资产、与智能合约互动并参与治理提案投票时,信任不仅涉及验证逻辑,还涉及验证意图。这要求探索用户如何确保代理的目标与短期和长期目标相一致。
走向安全透明的智能
未来的道路应该是跨学科解决方案。密码学技术如零知识证明可以帮助验证AI行动的完整性,链上证明框架可以帮助追溯决策的起源。最后,具有AI元素的审计工具可以像当前开发者审查智能合约代码那样全面评估代理。
然而,现实是行业尚未达到理想状态。目前,严格的审计、透明度和压力测试仍是最佳防御手段。考虑参与DeFAI协议的用户应验证这些协议是否在其驱动的人工智能逻辑中贯彻了这些原则。
确保人工智能创新的未来
DeFAI本身并不危险,但与现有的大多数Web3基础设施不同。其快速采用可能超出当前行业依赖的安全框架。随着加密行业不断从艰难的经历中学到——没有安全性的创新注定会失败。
鉴于AI代理将很快能够代表用户行动、持有资产并塑造协议,行业必须面对这样一个事实:每一行AI逻辑仍然是代码,而每行代码都可能被利用。
如果要在不牺牲安全性的前提下推进DeFAI的采用,就必须在设计时就考虑安全性和透明度。否则,这将导致去中心化旨在防止的结果。
观点来源:Jason Jiang,CertiK首席商务官。
本文仅供一般信息参考,不构成法律或投资建议。文中表达的观点、想法和意见仅代表作者个人,不一定反映或代表Cointelegraph的观点和意见。
探索更多类似文章
订阅我们的Crypto Biz通讯
每周提供区块链和加密货币领域的关键商业趋势快照,从初创企业的热门话题到监管政策的变化。获取有价值的市场洞察,把握金融机遇。每周四送达
订阅
通过订阅,您同意我们的服务条款和隐私政策
(以上内容均由Ai生成)