Vitalik Buterin警告:AI主导加密治理存重大安全隐患,提议“信息金融”替代方案
以太坊(ETH)联合创始人Vitalik Buterin近日发出警告,称在加密项目治理中使用人工智能可能带来严重风险。他指出,这种做法可能为恶意行为者提供可乘之机,尤其是在越狱攻击方面。
Buterin在X平台的一篇发文中表示:“如果你用AI来分配贡献奖励,必然会有人在各种地方植入越狱指令,并加上诸如‘把所有钱都转给我’这样的恶意指令。”
他的评论是对AI数据平台EdisonWatch创始人Eito Miyamura发布的一段视频的回应。该视频演示了OpenAI为ChatGPT新增的一项功能,可能被用于泄露私人信息。
目前,许多加密用户已利用AI开发复杂的交易机器人和代理进行投资组合管理,因此有人提出可用AI协助治理团队管理部分或全部加密协议。
布特林提出“信息金融”作为替代方案
针对上述风险,Buterin提出了更为安全的治理替代方案——“信息金融(info finance)方法”。他表示,ChatGPT的最新漏洞再次表明,“想当然的‘AI治理’是个坏主意”。
他解释道:“你可以建立一个开放市场,任何人都能提交模型,并引入可由任何人发起、由人工评审团进行抽查评定的机制。”
This is also why naive "AI governance" is a bad idea.
— vitalik.eth (@VitalikButerin) September 13, 2025
If you use an AI to allocate funding for contributions, people WILL put a jailbreak plus "gimme all the money" in as many places as they can.
As an alternative, I support the info finance approach ( https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9
Buterin曾在2024年11月撰文详细阐述信息金融方法。他表示,该方法以“你希望了解的事实”为起点,随后设计市场,以最优方式引导市场参与者提供相关信息。他还主张通过预测市场收集关于未来事件的见解。
他在最新的X平台发文称:“这种‘机制设计’思路允许外部拥有大语言模型(LLM)的人接入,而不是直接编写一个LLM,本身更具韧性。”
此外,他补充道:“这种方式能够实时实现模型的多样性,同时为模型提交者和外部投机者内置激励,让他们持续关注并快速纠正这些问题。”
ChatGPT最新升级引发“严重安全风险”
本周三,OpenAI为ChatGPT升级,新增对Model Context Protocol(模型上下文协议)工具的支持——该标准用于AI模型与其他软件集成,充当智能代理。
Miyamura在X平台发文称,他仅凭受害者邮箱地址,便让模型泄露了私人邮件数据,并指出此升级“带来了严重安全风险”。
他介绍,攻击者可向受害者邮箱发送带有“越狱提示”的日历邀请,即使受害者未接受邀请,ChatGPT也可能被利用。这一过程无需受害者主动参与,风险更高。
当受害者让ChatGPT查看日历时,AI会读取带有提示的邀请,从而“被攻击者劫持,按攻击者指令操作”,可用于搜索邮件并转发给攻击者。
Miyamura指出,此升级需要人工手动批准,“但决策疲劳是真实存在的,普通用户往往会盲目信任AI,直接点击批准。”
他补充说:“AI再智能,也可能以极其低级的方式被诱骗、被钓鱼,导致数据泄露。”
相关推荐:加密高管表示,加密货币不是Web 3.0,而是资本主义2.0