币币情报道:
被誉为“人工智能教父”的杰弗里·辛顿在一次新采访中发出了迄今为止最严厉的警告,称人工智能不仅对就业构成威胁,还可能因世界加速迈向自动化而危及整个人类的生存。他特别提到了超级智能机器的潜在危险。
在接受《CEO日记》播客采访时,辛顿描绘了一幅未来黯淡的图景。他认为,人工智能可能最终会认定人类已经过时,并采取极端手段消除人类。
“如果它想除掉我们,我们根本无法阻止,”辛顿表示,“我们不习惯思考比我们更聪明的事物。如果你想知道当你不是顶尖智力时生活是什么样的,去问一只鸡吧。”
辛顿指出,人工智能的威胁可能来自两个方面:一是人类对其的滥用,例如网络攻击、错误信息传播以及自主武器的制造;二是完全自主且不受控制的人工智能系统。
“他们现在可以制造致命的自主武器了,我认为所有主要的国防部门都在忙着制造它们,”他说,“即使它们不比人类聪明,它们仍然是非常危险、可怕的东西。”
2023年5月,神经网络先驱辛顿离开谷歌和多伦多大学,结束了十多年的人工智能研究生涯,以便自由谈论这项技术的潜在危险。
辛顿的警告正值人工智能军事应用激增之际。近期的发展突显了技术与国防行动的快速融合,美国在资金投入和合作伙伴关系方面处于领先地位。
11月,为了增强军队的人工智能和自主武器能力,美国国防部在其提交给国会的2025年预算提案中请求了1430亿美元,其中18亿美元专门用于人工智能研发。同年早些时候,软件开发商Palantir获得了1.75亿美元的合同,与美国陆军合作开发人工智能瞄准系统。今年3月,五角大楼与Scale AI合作,推出了一款名为“雷霆熔炉”的项目。
辛顿将当前的人工智能发展比作核武器的出现,但他强调,人工智能的应用范围更广,也更难控制。
“原子弹只有一个用途,它的工作原理非常明显,”他说,“而人工智能可以做很多很多事情。”
辛顿解释说,企业利润动机和国际竞争的结合使得人工智能的发展不会放缓。
“利润动机告诉他们:只要能让他们点击就给他们看,而真正让他们点击的,是越来越极端的东西,这进一步证实了他们已有的偏见,”他说,“所以,你的偏见一直在不断得到证实。”
关于人工智能如何可能导致人类灭绝,辛顿提到,超级智能AI可能会设计出新的生物威胁来消灭人类。
“最显而易见的方法是制造一种极其危险的病毒——传染性极强、致命性极高、传播速度极慢——这样每个人都会在不知不觉中感染它,”他说。“如果超级智能想要消灭我们,它很可能会选择某种不会对它造成影响的生物。”
尽管前景黯淡,但辛顿并未完全失去希望。
“我们根本不知道能否阻止它们占领地球,阻止它们伤害我们。我认为我们目前还不清楚能否做到,所以我觉得这或许毫无希望,”辛顿说,“但我也认为我们或许能够做到,而且如果因为我们懒得尝试而导致人类灭绝,那也未免太疯狂了。”