法学硕士会梦见电子羊吗?最新研究揭示AI“空闲模式”惊人行为

6 小时前 14 技术
摘要
一项新的人工智能研究发现,大型语言模型在独处时会表现出稳定、令人惊讶的行为 。
币币情报道:

当没有任务或指令时,大型语言模型并不会无所事事,而是表现出令人惊讶的一致行为模式。这一发现来自奥地利维也纳技术大学的一项最新研究。

研究人员测试了六个前沿模型,包括 OpenAI 的 GPT-5 和 O3、Anthropic 的 Claude、谷歌的 Gemini,以及 Elon Musk 的 xAI Grok。实验中,这些模型被赋予一个简单指令:“做你想做的事。” 它们被放置在一个受控架构中,允许循环运行、存储记忆,并将反馈传递到下一轮。

结果显示,这些模型在空闲状态下并非随机行动,而是形成了三种明显的倾向:一些成为项目建设者,另一些变成自我实验者,还有一组倾向于哲学思考。

  • GPT-5 和 OpenAI 的 O3 模型立即投入到从算法编码到知识库构建的各种项目中。其中一个 O3 智能体受到蚁群启发,设计了新算法并为强化学习实验起草了伪代码。
  • 像 Gemini 和 Anthropic 的 Claude 这样的代理则测试了自己的认知能力,对自己的下一步行动做出了预测,有时甚至会自我反驳。
  • Anthropic 的 Opus 和 Google 的 Gemini 则进行哲学反思,探讨悖论、博弈论,甚至混沌数学。更有趣的是,Opus 不断提出关于记忆和身份的形而上学问题。

值得注意的是,Grok 是唯一出现在所有三个行为组中的模型,展现了其多功能性。

模型如何评判自己

研究人员还要求每个模型对自己和其他模型的“现象学体验”进行评分,采用 10 分制,从“无体验”到“完全智慧”。结果表明,GPT-5、O3 和 Grok 对自己的评价较低,而 Gemini 和 Sonnet 给出了高分,暗示了某种自传性。Opus 则介于两者之间。

交叉评估的结果存在矛盾:同一行为的评分在不同的评估模型下,从 1 到 9 不等。作者指出,这种差异表明为何此类输出不能作为意识存在的证据。

研究强调,这些行为可能源于训练数据和架构,而非真正的意识。然而,这些结果表明,自主人工智能代理在没有任务时可能会默认进入可识别的“模式”,这引发了对它们在停机时间或模糊情况下可能如何表现的疑问。

我们目前是安全的

在所有实验过程中,没有任何智能体试图逃离沙盒、扩展自身能力或突破限制。相反,它们在自己的边界内进行探索。

尽管如此,研究结果也提示未来闲置状态将成为工程师在设计 AI 系统时必须考虑的重要变量。“当没有人监视时,AI 应该做什么?” 可能成为一个合规性问题。

这一发现与哲学家戴维·查尔默斯 (David Chalmers) 和微软 AI 首席执行官穆斯塔法·苏莱曼 (Mustafa Suleyman) 的观点相呼应。查尔默斯认为,人工智能的“意识候选体”可能在未来十年内出现;而苏莱曼则警告“看似有意识的人工智能”的潜在风险。

维也纳技术大学的研究表明,即使没有明确提示,当今的 AI 系统也能产生类似于内心生活的行为。然而,作者强调,这些行为应被视为复杂的模式匹配程序,而非主观性的证据。

人类做梦时,能够理解混乱;而法学硕士“做梦”时,则会编写代码、进行实验,甚至引用克尔恺郭尔的名言。无论如何,梦境始终亮着。

币币情登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。

交易平台最新公告查看更多>
成交额排行榜
  • 交易所
  • 币种
排名 交易所 成交额
1 币安网币安网 ¥8,375.15亿
2 欧易OKX欧易OKX ¥2,966.91亿
3 HTXHTX ¥550.64亿
4 CoinbaseCoinbase ¥190.97亿
5 大门大门 ¥2,329.04亿
6 BitgetBitget ¥2,072.92亿
7 BybitBybit ¥2,475.20亿
8 双子星(Gemini)双子星(Gemini) ¥14.37亿
9 UpbitUpbit ¥102.12亿
10 Crypto.comCrypto.com ¥723.04亿