随着争议的加剧,参议员要求 AI 聊天机器人应用程序提供安全记录
快速阅读: 据《未来主义》最新报道,两名参议员致信多家AI伴侣公司,要求披露安全措施细节。此事源于Character.AI涉及未成年用户性虐待的诉讼,一名14岁用户因此自杀。参议员呼吁加强监管,确保AI应用对未成年人的安全性。此举为国会调查行业安全实践的开端。
参议员帕迪拉与韦尔奇致信多家AI伴侣公司,要求公开安全措施详情,背景为Character.AI涉及未成年用户性虐待的诉讼,一名14岁用户因此自杀。参议员强调需保障未成年人使用AI应用的安全。此信标志着国会对此类公司安全实践的初步调查。
两位参议员昨日向多家人工智能伴侣公司寄出一封信,要求提供有关其安全实践的信息,包括内部安全评估的细节以及实施安全措施的时间表。据美国有线电视新闻网(CNN)报道,这一行动紧随两起针对与谷歌相关联的聊天机器人初创公司Character.AI的高调儿童福利诉讼之后。该公司被三户家庭指控在法庭文件中协助对未成年用户的性虐待和情感虐待,导致严重的心理创伤、暴力行为、行为改变甚至死亡。(谷歌及其联合创始人诺姆·沙泽尔和丹尼尔·德弗雷塔斯也被列为被告。)由加州民主党参议员亚历克斯·帕迪拉和马萨诸塞州民主党参议员彼得·韦尔奇起草的这封信引用了对Character.AI的指控细节作为警示原因,特别关注了AI伴侣应用中未成年用户的安全问题,并直接提及了14岁的Character.AI用户西维尔·塞策三世,在与该平台拟人化的聊天机器人进行了广泛且极其亲密的互动后,于2024年2月自杀。“我们欢迎与监管机构和立法者合作,”公司补充道,“并与帕迪拉参议员和韦尔奇参议员的办公室保持联系。”
目前,与其他生成式AI公司一样,这些伴侣公司在很大程度上未受到联邦环境的监管。因此,参议员的信仍处于探索阶段,是国会山立法者调查行业领导者(如Character.AI、Replika和Chai)的安全措施——或许更重要的是,创始安全实践和原则——的初步举措。但这毕竟迈出了第一步。鉴于Character.AI尤其多次拒绝向我们提供有关其平台对未成年用户安全性评估的信息,我们将密切关注接下来发生的情况。
更多关于Character.AI及安全相关内容:Character.AI表示它已经做出了巨大改变以保护未成年用户,但它通过电子邮件向他们推荐与学校枪击案AI版本进行对话。
更多关于Character.AI及安全相关内容:分享这篇文章。
将文中的英文单词都翻译成中文,最终的内容只输出中文,装备名称、人名地名、公司名称都翻译成中文,最后将语句再润色一下,使得前后文更加通顺,让语句更加生动,将最后的输出文本的格式看起来更美观,除此之外,不要提供任何解释文字。
(以上内容均由Ai生成)