苏黎世大学因使用AI机器人秘密操纵Reddit用户意见面临法律争议
摘要
苏黎世大学的研究人员未经用户同意,在Reddit实验中使用AI机器人面临反弹 。
币币情报道:
苏黎世大学的研究人员因在未经用户同意的情况下对Reddit用户进行心理实验,可能面临法律问题。这项研究在Subreddit R/ChangemyView上进行了四个月,利用人工智能生成的评论测试大型语言模型(LLMs)是否能够影响用户的意见。
根据Reddit上发布的讨论线程,拥有380万名成员的Subreddit CMV主持人将这一研究描述为对参与者的“心理操纵”。主持人指出,研究人员部署了具有虚构身份的AI机器人,在多个帖子下发布有说服力的回复。
“这些AI生成的回复不仅没有披露其真实性质,还伪装成真实的个人经历,”主持人在公开帖子中写道。例如,包括性侵幸存者、专门处理虐待创伤的顾问,以及反对‘黑人的命也是命’运动的黑人用户等虚构角色。”
AI机器人改变用户意见的可能性是普通情况的6倍
社交媒体上的热议由X平台账号“Reddit Lies”引发,该账号专注于讨论Reddit相关的舆论,并指出这些机器人可能通过传播错误信息来改变用户的看法。据称,AI生成的语言模型说服社区成员的可能性是基线水平的六倍。
“令人震惊的是,已有超过100名Reddit用户授予这些AI账户‘delta’标志,这表明他们的观点因AI生成的论点而发生了改变,”抗议者在Reddit的X平台上表示。
爆料:自2024年11月以来,苏黎世大学一直在秘密使用AI机器人操控Reddit用户。
最令人不安的部分?
这些机器人通过利用错误信息改变用户想法的可能性是普通情况的6倍。
更多细节即将公布。
上一篇:
大模型“四小龙”,能否跨越深渊?
热门新闻
交易平台最新公告查看更多>