DeFAI:AI驱动的DeFi面临新安全挑战

发布时间:2025年9月14日    来源:szf
DeFAI:AI驱动的DeFi面临新安全挑战

快速阅读: 去中心化金融(DeFi)最新创新DeFAI,利用AI提高效率,但也带来新的安全挑战,如模型操纵和数据中毒,需加强审计和透明度以保障用户安全。

自成立以来,去中心化金融(DeFi)生态系统一直以创新著称,从去中心化交易所(DEXs)到借贷协议、稳定币等。最新的创新是DeFAI,即由人工智能驱动的DeFi。在DeFAI中,通过大规模数据集训练的自主机器人能够显著提高效率,执行交易、管理风险并参与治理协议。

然而,与所有基于区块链的创新一样,DeFAI也可能引入新的攻击途径,加密社区必须解决这些问题以提高用户安全。这需要深入分析伴随创新而来的漏洞,以确保安全性。

DeFAI代理超越了传统智能合约

在区块链中,大多数智能合约通常基于简单的逻辑运行,例如,“如果X发生,则执行Y”。由于其内在透明性,这些智能合约可以被审计和验证。相比之下,DeFAI偏离了传统的智能合约结构,因为其AI代理本质上是概率性的。这些AI代理根据不断演变的数据集、先前输入和上下文作出决策。它们可以解释信号并适应变化,而不是对预设事件作出反应。尽管有人认为这一过程带来了复杂的创新,但它也因其固有的不确定性,成为错误和利用的温床。

到目前为止,早期版本的人工智能驱动的交易机器人在去中心化协议中的应用已经显示出向DeFAI转变的趋势。例如,用户或去中心化自治组织(DAOs)可以部署一个机器人来扫描特定的市场模式,并在几秒钟内执行交易。虽然听起来很有创新性,但大多数机器人仍然运行在Web2基础设施上,将集中式故障点的脆弱性带入Web3。

DeFAI创造新的攻击面

行业不应因将AI融入去中心化协议而过于兴奋,因为这种转变可能会产生尚未准备好的新攻击面。恶意行为者可以通过模型操纵、数据中毒或对抗性输入攻击来利用AI代理。

例如,一个被训练用于识别DEX间套利机会的AI代理可能受到威胁。攻击者可以篡改其输入数据,导致代理执行亏损交易,甚至耗尽流动性池的资金。此外,受损的代理可能会误导整个协议相信虚假信息,或成为更大规模攻击的起点。

这些风险因大多数AI代理目前是黑箱而加剧。即使是开发者,他们创建的AI代理的决策能力也可能不透明。这些特性与建立在透明度和可验证性基础上的Web3精神背道而驰。

安全是共同的责任

鉴于这些风险,人们可能会对DeFAI的影响提出质疑,甚至呼吁暂停这一发展。然而,DeFAI很可能继续进化并获得更广泛的应用。因此,行业需要相应地调整其安全方法。涉及DeFAI的生态系统可能需要一个标准的安全模型,其中开发者、用户和第三方审计师共同确定维持安全和减轻风险的最佳手段。

AI代理应像其他任何链上基础设施一样,受到怀疑和审查。这意味着要严格审核其代码逻辑,模拟最坏情况,并通过红队演练暴露攻击路径,防止恶意行为者利用它们。此外,行业必须制定透明度标准,如开源模型或文档。

无论行业如何看待这一转变,DeFAI都提出了关于去中心化系统信任的新问题。当AI代理能够自主持有资产、与智能合约互动并参与治理提案投票时,信任不仅涉及验证逻辑,还涉及验证意图。这要求探索用户如何确保代理的目标与短期和长期目标相一致。

走向安全透明的智能

未来的道路应该是跨学科解决方案。密码学技术如零知识证明可以帮助验证AI行动的完整性,链上证明框架可以帮助追溯决策的起源。最后,具有AI元素的审计工具可以像当前开发者审查智能合约代码那样全面评估代理。

然而,现实是行业尚未达到理想状态。目前,严格的审计、透明度和压力测试仍是最佳防御手段。考虑参与DeFAI协议的用户应验证这些协议是否在其驱动的人工智能逻辑中贯彻了这些原则。

确保人工智能创新的未来

DeFAI本身并不危险,但与现有的大多数Web3基础设施不同。其快速采用可能超出当前行业依赖的安全框架。随着加密行业不断从艰难的经历中学到——没有安全性的创新注定会失败。

鉴于AI代理将很快能够代表用户行动、持有资产并塑造协议,行业必须面对这样一个事实:每一行AI逻辑仍然是代码,而每行代码都可能被利用。

如果要在不牺牲安全性的前提下推进DeFAI的采用,就必须在设计时就考虑安全性和透明度。否则,这将导致去中心化旨在防止的结果。

观点来源:Jason Jiang,CertiK首席商务官。

本文仅供一般信息参考,不构成法律或投资建议。文中表达的观点、想法和意见仅代表作者个人,不一定反映或代表Cointelegraph的观点和意见。

探索更多类似文章

订阅我们的Crypto Biz通讯

每周提供区块链和加密货币领域的关键商业趋势快照,从初创企业的热门话题到监管政策的变化。获取有价值的市场洞察,把握金融机遇。每周四送达

订阅

通过订阅,您同意我们的服务条款和隐私政策

(以上内容均由Ai生成)

你可能还想读

芯纬内部人士抛售超10亿美元股票引发警报

芯纬内部人士抛售超10亿美元股票引发警报

快速阅读: 纳斯达克上市公司CoreWeave因内部人士大量抛售股票受关注,10月交易超10亿美元,股价承压下跌,引发投资者对该公司信心的质疑。 纳斯达克上市的CoreWeave (CRVW)因内部人士大量抛售股票而受到广泛关注。10月,一 […]

发布时间:2025年10月24日
升腾首席分析与AI官:用数学背景解决医疗问题

升腾首席分析与AI官:用数学背景解决医疗问题

快速阅读: 安森斯首席分析与人工智能官卡提克·拉贾强调,人工智能是一类问题而非单一事物,需识别并应用正确方法解决。他领导团队利用AI优化医疗流程,提高决策效率,同时注重人才培养和道德领导。 卡提克·拉贾,这家覆盖16个州的大型医疗系统首席分 […]

发布时间:2025年10月24日
格拉斯利宣布法官使用AI致法庭命令出错,实施新政

格拉斯利宣布法官使用AI致法庭命令出错,实施新政

快速阅读: 美国参议院司法委员会主席格拉斯利宣布收到法官们关于AI导致法院命令出错的回应,法官温盖特和尼尔斯承认错误并实施新政策,确保命令准确性,同时法院行政办公室成立AI咨询工作组,发布临时指导方针。 美国参议院司法委员会主席查克·格拉斯 […]

发布时间:2025年10月24日
AI视频生成系统不断进步,ChatGPT创始人更新发展计划

AI视频生成系统不断进步,ChatGPT创始人更新发展计划

快速阅读: 本周,顶尖开发者公布人工智能视频生成系统的最新进展,包括即将推出的安卓应用。该技术融合多种特性,引发艺术与伦理讨论,但仍不断进步,输出效果惊人。 基于人工智能的视频生成系统集多种特性于一身。的确,它们引发了关于艺术、创作者角色及 […]

发布时间:2025年10月24日
美法官承认职员用AI起草错误命令

美法官承认职员用AI起草错误命令

快速阅读: 美国地方法官温盖特承认其法律助理使用AI程序起草了有误的法院命令,引发争议。温盖特表示将加强审查流程,避免类似错误。参议员格拉斯利呼吁制定更明确的AI使用政策。 密西西比州的一名联邦法官承认,其工作人员使用人工智能起草了一份有误 […]

发布时间:2025年10月24日
ChatGPT遭遇重大故障,用户报告服务中断

ChatGPT遭遇重大故障,用户报告服务中断

快速阅读: ChatGPT遭遇重大技术故障,OpenAI确认“高频率错误”,用户反馈广泛。故障始于周四上午11时(美国东部时间),Downdetector数据显示问题激增。 受连续强降雨影响,南部多地出现洪水,相关部门紧急启动防汛响应。Ch […]

发布时间:2025年10月24日
OpenAI推新浏览器Atlas,挑战Google Chrome

OpenAI推新浏览器Atlas,挑战Google Chrome

快速阅读: OpenAI推出ChatGPT Atlas浏览器,挑战谷歌Chrome,集成AI功能助用户高效完成任务,计划近期增加标签组和广告拦截器等新特性。 萨姆·阿尔特曼的OpenAI继续将其生成式AI模型整合到全球大多数人的日常工具—— […]

发布时间:2025年10月24日
ChatGPT短暂故障后恢复,医疗咨询模式引关注

ChatGPT短暂故障后恢复,医疗咨询模式引关注

快速阅读: 医学研究人员报告AI医疗失误案例,患者因咨询ChatGPT致溴化物中毒精神错乱。专家长期担忧此问题,OpenAI推出专门医疗建议模式应对。 几周前,一位医学研究人员报告了一起由AI引发的医疗失误案例,详细描述了一名患者因咨询Ch […]

发布时间:2025年10月24日