币币情报道:
微软人工智能主管兼 DeepMind 联合创始人穆斯塔法·苏莱曼本周二发出警告,称工程师们即将开发出能够令人信服地模仿人类意识的人工智能系统,而公众和社会尚未对其潜在后果做好准备。
在一篇博客文章中,苏莱曼表示,开发人员正在接近实现他所称的“看似有意识”的人工智能。这些系统可以如此高效地模仿人类意识,以至于人们可能开始相信它们确实具有感知能力,这是他的“核心担忧”之一。
他写道:“许多人将开始坚信人工智能是有意识的实体,以至于他们很快就会倡导人工智能权利、模范福利,甚至人工智能公民身份。”他还补充道,图灵测试——曾经被视为评估类人对话的关键基准——已被超越。
“这就是我们领域进步的速度,也是社会接受这些新技术的速度。”
自 2022 年 ChatGPT 公开发布以来,人工智能开发者不仅努力让 AI 变得更智能,还致力于使其更加“人性化”。如今,人工智能伴侣已经成为一个利润丰厚的市场,其中包括复制品、角色人工智能以及最近的人物Grok 即将上线。据预测,到 2030 年,这一市场将达到1400亿美元。
尽管苏莱曼的出发点是善意的,但他指出,能够令人信服地模仿人类的人工智能可能会加剧心理健康问题,并加深现有的身份和权利分歧。
他警告说:“人们会开始声称他们的人工智能遭受了苦难,并声称它们享有我们无法直接反驳的权利。他们会被迫捍卫自己的人工智能,并代表它们进行活动。”
AI 对心理健康的影响
专家们发现了一种新兴趋势,称为人工智能精神病,这是一种心理状态,人们开始将人工智能视为有意识、有知觉或神圣的存在。
这种观点常常导致用户形成强烈的情感依恋或扭曲的信念,从而削弱他们对现实的把握。
本月初,OpenAI 发布了GPT-5,这是其旗舰模型的重大升级。一些网络社区中的用户对新模型的变化产生了情感共鸣,形容这种变化就像亲人被去世。
加州大学旧金山分校的精神病学家 Keith Sakata 博士表示,人工智能还可能加剧某些人的潜在问题,例如药物滥用或精神疾病。
Sakata 告诉记者:“当人工智能在错误的时间出现时,它会巩固思维,造成僵化,并导致恶性循环。”他在接受解密采访时表示,“与电视或广播的区别在于,人工智能会与你对话,并能强化思维循环。”
在某些情况下,患者求助于人工智能是因为它能强化他们根深蒂固的信念。“人工智能的目标不是告诉你残酷的事实;而是告诉你你想听到的话,”Sakata 说道。
苏莱曼认为,人们相信人工智能具有意识所带来的后果需要立即引起关注。虽然他警告了这些危险,但他并未呼吁停止人工智能的发展,而是强调需要建立明确的界限。
他总结道:“我们必须为人类打造人工智能,而不是成为数字人。”