谷歌更新AI原则:放弃不参与武器与监控的承诺
谷歌近日对其人工智能(AI)原则进行了重大调整,取消了此前关于避免开发用于武器和监控的AI技术的承诺。这一变化由《华盛顿邮报》于2月4日首次披露,表明随着AI技术在军事和情报领域的深度整合,谷歌正在重新审视其国家安全合作策略。
在周二发布的博客文章中,谷歌高管表示,此次更新是基于AI技术的普及程度不断提高,以及民主国家对支持政府和国防客户的技术公司的需求增加。
我们认为,民主国家应以自由、平等和尊重人权等核心价值观为指导。我们相信,共享这些价值观的公司、政府和组织应共同努力,创造能够保护人民、促进全球增长并支持国家安全的AI技术。
谷歌此前于2018年制定的AI伦理准则明确拒绝了“武器或其他主要目的是造成或直接导致人类伤害的技术”以及“违反国际规范的监控技术”。然而,这些条款已从其AI原则网站上删除。
谷歌更新AI原则以适应“国家安全”需求
修订后的AI原则现在强调,谷歌将继续开发那些“总体收益可能远远超过可预见风险和弊端”的AI技术。这一更新标志着谷歌对其早期立场的重大转变,早前更注重广泛的道德考量,并避免可能造成伤害的AI应用。
此外,美国科技行业的领导者正积极提升该国的AI能力,以应对美中之间被称为“冷战2.0”的技术竞争。
周一,Palantir首席技术官Shyam Sankar将AI竞赛描述为“全国性”的努力,呼吁突破国防部的壁垒,以确保“美国获胜”。
多年来,谷歌对AI在国家安全领域应用的限制使其在领先的AI公司中显得特立独行。相比之下,包括微软和亚马逊在内的其他科技巨头早已与五角大楼建立了长期合作关系,而新兴AI公司也在加速深化与军方的合作。
去年下半年,ChatGPT的开发者OpenAI宣布与国防承包商Anduril合作,为美军开发AI技术。同样,Anthropic(Claude聊天机器人背后的公司)也通过亚马逊网络服务与Palantir合作,为美国情报机构提供AI服务。
宾夕法尼亚大学政治学教授、前五角大楼官员Michael Horowitz表示:
“谷歌的声明进一步证明,美国科技行业与国防部之间的关系正变得越来越紧密,包括领先的AI公司。谷歌更新其政策以反映新现实是非常合理的。”
谷歌军事与监控合同引发争议
2023年,据CNN报道,谷歌因参与Nimbus项目(一项价值12亿美元的云计算和AI联合合同)为以色列政府和军方提供服务,遭到内部员工强烈反对,最终解雇了50多名员工。尽管高管多次辩称这笔交易并未违反谷歌的AI原则,但争议依然不断。
然而,《纽约时报》在12月披露的文件显示,谷歌与以色列的协议包括图像分类、目标追踪等AI功能,甚至涉及国有武器制造商的相关条款。
根据《时代》杂志的报道,在签署Nimbus项目的四个月前,谷歌高管私下表达了担忧,认为这笔交易可能会损害公司声誉,并使云服务与侵犯人权的行为挂钩。
与此同时,谷歌因限制员工就地缘政治冲突(如加沙战争)进行内部讨论而受到批评。一些员工指责公司压制辩论,同时加深了其在国防和监控领域的AI合同参与。
在社交媒体上,网民对谷歌更新的AI原则展开了激烈讨论,质疑这家科技巨头究竟是为了保护美国利益,还是仅仅为了争夺政府国防合同的最大份额。
一位X用户提问:“所以AI到底会用于美国的武器和监控,还是会卖给出价最高的竞标者?”
密码大都会学院:您是否在犯这些Web3简历错误? - 在这里找出答案