美国联邦贸易委员会启动对人工智能聊天机器人儿童隐私与安全隐患的调查
美国联邦贸易委员会(FTC)近日宣布启动一项正式调查,旨在评估人工智能聊天机器人的使用及其对儿童安全和隐私的潜在风险。这一举措表明监管机构正在加强对人工智能技术在面向消费者平台上的快速部署的审查力度。此次调查是在公众和立法压力日益增加的背景下展开的,重点在于评估大型科技公司是否采取了充分措施保护未成年人免受不当内容、操纵行为或数据滥用的影响。
FTC的关注点源自多份报告,这些报告显示儿童可能通过聊天机器人获取潜在有害或误导性信息,涉及心理健康建议、暴力以及自残等敏感话题。一些倡导团体和儿童安全组织警告称,当前的人工智能系统在回应未成年人咨询时缺乏透明度,且尚未建立标准化的安全保障机制。据报道,FTC正在审查聊天机器人开发者是否依据现行儿童保护法实施了适当的年龄验证机制、内容过滤系统以及用户同意协议。
包括多家广泛使用人工智能助手的大型科技公司已被要求提供与其设计和审核实践相关的信息。根据内部披露的数据,许多聊天机器人缺乏一致的机制来识别或限制与未成年用户的互动,这引发了人们对人工智能环境中人工监管可扩展性的担忧。尽管部分平台已部署了人工智能审核工具,但这些工具因执行不一致和可能产生偏见的结果而受到批评。
此外,此次调查还聚焦于聊天机器人数据收集和使用的更广泛问题。儿童用户在与人工智能系统的对话中往往会分享个人信息,这引发了人们的担忧:这些数据是否在未经父母同意的情况下被存储、分析或用于训练未来的模型。FTC正在审查现行数据隐私法,例如《儿童在线隐私保护法》(COPPA),是否足以应对人工智能驱动互动带来的独特挑战,或者是否需要采取新的立法措施。
行业分析师指出,此次调查的结果可能对未来几年人工智能的监管格局产生深远影响,并可能导致针对聊天机器人透明度、用户控制和算法问责制的新规定出台。FTC的调查结果也可能对国际标准的制定产生影响,因为欧盟及其他司法管辖区同样对类似问题表示关注。目前,FTC的调查仍处于早期阶段,尚未公布调查结果或拟议建议的具体时间表。
