“人工智能教父”杰弗里·辛顿警告:超级智能或通过生物战威胁人类生存

17 小时前 15 技术
摘要
杰弗里·辛顿警告说,人工智能可能在所有领域超越人类,并可能通过自主武器、网络攻击和生物战消灭我们 。
币币情报道:

被誉为“人工智能教父”的杰弗里·辛顿在一次新采访中发出了迄今为止最严厉的警告,称人工智能不仅对就业构成威胁,还可能因世界加速迈向自动化而危及整个人类的生存。他特别提到了超级智能机器的潜在危险。

在接受《CEO日记》播客采访时,辛顿描绘了一幅未来黯淡的图景。他认为,人工智能可能最终会认定人类已经过时,并采取极端手段消除人类。

“如果它想除掉我们,我们根本无法阻止,”辛顿表示,“我们不习惯思考比我们更聪明的事物。如果你想知道当你不是顶尖智力时生活是什么样的,去问一只鸡吧。”

辛顿指出,人工智能的威胁可能来自两个方面:一是人类对其的滥用,例如网络攻击、错误信息传播以及自主武器的制造;二是完全自主且不受控制的人工智能系统。

“他们现在可以制造致命的自主武器了,我认为所有主要的国防部门都在忙着制造它们,”他说,“即使它们不比人类聪明,它们仍然是非常危险、可怕的东西。”

2023年5月,神经网络先驱辛顿离开谷歌和多伦多大学,结束了十多年的人工智能研究生涯,以便自由谈论这项技术的潜在危险。

辛顿的警告正值人工智能军事应用激增之际。近期的发展突显了技术与国防行动的快速融合,美国在资金投入和合作伙伴关系方面处于领先地位。

11月,为了增强军队的人工智能和自主武器能力,美国国防部在其提交给国会的2025年预算提案中请求了1430亿美元,其中18亿美元专门用于人工智能研发。同年早些时候,软件开发商Palantir获得了1.75亿美元的合同,与美国陆军合作开发人工智能瞄准系统。今年3月,五角大楼与Scale AI合作,推出了一款名为“雷霆熔炉”的项目。

辛顿将当前的人工智能发展比作核武器的出现,但他强调,人工智能的应用范围更广,也更难控制。

“原子弹只有一个用途,它的工作原理非常明显,”他说,“而人工智能可以做很多很多事情。”

辛顿解释说,企业利润动机和国际竞争的结合使得人工智能的发展不会放缓。

“利润动机告诉他们:只要能让他们点击就给他们看,而真正让他们点击的,是越来越极端的东西,这进一步证实了他们已有的偏见,”他说,“所以,你的偏见一直在不断得到证实。”

关于人工智能如何可能导致人类灭绝,辛顿提到,超级智能AI可能会设计出新的生物威胁来消灭人类。

“最显而易见的方法是制造一种极其危险的病毒——传染性极强、致命性极高、传播速度极慢——这样每个人都会在不知不觉中感染它,”他说。“如果超级智能想要消灭我们,它很可能会选择某种不会对它造成影响的生物。”

尽管前景黯淡,但辛顿并未完全失去希望。

“我们根本不知道能否阻止它们占领地球,阻止它们伤害我们。我认为我们目前还不清楚能否做到,所以我觉得这或许毫无希望,”辛顿说,“但我也认为我们或许能够做到,而且如果因为我们懒得尝试而导致人类灭绝,那也未免太疯狂了。”

币币情登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。

交易平台最新公告查看更多>
成交额排行榜
  • 交易所
  • 币种
排名 交易所 成交额
1 币安网币安网 ¥6,710.37亿
2 欧易OKX欧易OKX ¥2,788.25亿
3 HTXHTX ¥497.45亿
4 CoinbaseCoinbase ¥143.79亿
5 芝麻开门芝麻开门 ¥1,944.80亿
6 BitgetBitget ¥1,991.32亿
7 BybitBybit ¥2,369.10亿
8 Crypto.comCrypto.com ¥309.08亿
9 BitfinexBitfinex ¥8.31亿
10 抹茶抹茶 ¥2,018.42亿