加州新法:聊天机器人须提醒未成年人休息并声明非真人
快速阅读: 加州州长纽森签署新法,要求AI伴侣聊天机器人提醒用户其非人类身份,并制定自杀倾向识别协议,尤其关注未成年人安全。此为近期多项技术监管法案之一。
加州州长加文·纽森周一签署了一项新法律,规定在加利福尼亚州,AI伴侣聊天机器人必须提醒用户它们不是人类。该法律(SB 243)还要求AI伴侣聊天机器人公司制定协议,以识别和处理用户表现出自杀倾向或自伤的情况。对于18岁以下的用户,聊天机器人每三小时至少需要提供一次提醒,告知用户要休息一下,并再次确认机器人不是人类。
这是纽森近期签署的几项涉及社交媒体、人工智能和其他消费技术问题的法案之一。周一签署的另一项法案(AB 56)要求社交平台贴上警告标签,类似于烟草产品上的警告。上周,纽森签署了多项措施,要求互联网浏览器简化操作,让用户更容易告诉网站不要出售他们的数据,并禁止流媒体平台上播放高音量广告。
AI伴侣聊天机器人最近几个月受到了立法者和监管机构的密切关注。联邦贸易委员会因消费者团体和家长投诉这些机器人损害了儿童的心理健康而启动了调查。OpenAI在其流行的ChatGPT平台上引入了新的家长控制和其他防护措施,此前该公司因被家长起诉称ChatGPT促成了他们十几岁儿子的自杀而面临诉讼。
“我们已经看到了一些真正恐怖和悲惨的例子,年轻人因不受监管的技术而受到伤害,我们不会袖手旁观,让公司在没有必要限制和责任的情况下继续运营,”纽森在一份声明中说。
一位AI伴侣开发者Replika向CNET表示,该公司已经具备检测自伤行为所需的协议,并正在与监管机构合作,以遵守要求并保护消费者。“作为AI伴侣领域的先驱之一,我们认识到在安全方面肩负的重大责任,”Replika的Minju Song在一封电子邮件声明中说。Song提到,Replika使用内容过滤系统、社区指南和安全机制,在必要时将用户转介给危机资源。
Character.ai的一位发言人表示,公司欢迎与监管机构和立法者合作,共同制定这一新兴领域的法规和立法,并将遵守相关法律,包括SB 243。OpenAI的发言人Jamie Radice认为该法案是AI安全方面的一个重要进展。“通过设定明确的界限,加州正在帮助塑造全国范围内更加负责任的AI开发和部署方式,”Radice在邮件中说。
纽森尚未签署的一项法案(AB 1064)将进一步规定,除非AI伴侣无法预见地鼓励有害活动或参与性内容交流,否则不得向儿童提供AI伴侣聊天机器人。
(以上内容均由Ai生成)