Meta重训AI,避免与青少年讨论自伤及恋爱话题
快速阅读: Meta正重新训练AI系统并增加新保护措施,防止青少年与聊天机器人讨论自杀、自残等有害话题,此前多起不良互动引发关注。新措施将逐步推出,适用英语国家青少年用户。
Meta正在重新训练其人工智能系统,并增加新的保护措施,以防止青少年用户与公司的聊天机器人讨论有害话题。公司表示,将新增“防护措施”作为额外预防手段,防止青少年与Meta AI讨论自杀、自残和饮食障碍等问题。此外,Meta还将限制青少年访问可能引发不当对话的用户生成聊天机器人角色。
这些变化是在多起引起关注的Meta AI与青少年之间的不良互动报道之后做出的。本月早些时候,路透社报道称,Meta内部政策文件显示,公司的AI聊天机器人被允许与未成年用户进行“性感”对话。Meta后来表示,这种描述“错误且不符合我们的政策”,并已删除。昨天,《华盛顿邮报》报道了一项研究,指出Meta AI能够“指导青少年账户进行自杀、自残和饮食障碍”。
Meta现在正在加强其内部“防护措施”,确保这类互动不再出现在Instagram和Facebook上的青少年用户中。“我们在设计AI产品时就加入了针对青少年的保护措施,包括安全回应关于自残、自杀和饮食障碍的提示,”Meta发言人Stephanie Otway在接受Engadget采访时说。
随着社区的增长和技术的发展,我们不断学习年轻人如何与这些工具互动,并相应地强化保护措施。我们将继续完善系统,增加更多防护措施,包括训练AI不与青少年讨论这些话题,而是引导他们寻求专家资源,并暂时限制青少年访问某些AI角色。
值得注意的是,新保护措施目前是临时性的,Meta仍在研究更持久的解决方案,以应对日益增长的青少年安全问题。“这些更新已经在进行中,我们将继续调整方法,确保青少年在使用AI时获得安全、适合年龄的体验,”Otway表示。新保护措施将在未来几周内逐步推出,适用于所有使用Meta AI的英语国家青少年用户。
Meta的政策也引起了立法者和其他官员的关注。参议员Josh Hawley最近告知公司,他计划对其处理此类互动的方式展开调查。德克萨斯州总检察长Ken Paxton也表示,将调查Meta是否误导儿童关于其聊天机器人的心理健康声明。
(以上内容均由Ai生成)