FTC调查AI公司儿童保护措施,AI授权Medicare治疗引争议
快速阅读: 美国联邦贸易委员会(FTC)向Meta等AI公司索要文件,评估儿童使用AI产品的安全措施,旨在保护儿童心理健康并促进AI创新。同时,2026年将启动AI辅助医保授权试点,引发议员和专家担忧。
美国联邦贸易委员会(FTC)正在向主要的人工智能公司,如Meta,索要文件,以评估儿童如何与人工智能产品互动以及目前有哪些保护措施,这源于对心理健康风险和不当聊天机器人互动的担忧。FTC强调了双重目标:既要保护孩子在线安全,也要支持美国在人工智能创新方面的领导地位。根据《联邦贸易委员会法》第6(b)条授权发出的命令,是为应对生成式人工智能日益嵌入消费者平台——特别是未成年人经常使用的平台——而增加监管力度的一部分。委员会一致批准了这一举措,委员Melissa Holyoak和Mark Meador分别发表了个人声明。
将于2026年启动的一项联邦试点项目将使用人工智能来授权六个州的医疗保险患者接受治疗,此举引发了部分议员和专家的反对,他们担心这可能导致错误地拒绝医疗服务;民主党俄亥俄州众议员Greg Landsman称其为“人工智能死亡小组”。这两项调查凸显了两党对人工智能在医疗保健和社会媒体中不受控制的角色的共同担忧,议员们呼吁进行独立审查并实施更严格的保障措施。调查的核心在于这些公司如何处理适合年龄的设计、向用户和家长披露风险、遵守《儿童在线隐私保护法》(COPPA)以及执行社区指南等问题。FTC还希望了解这些公司如何开发聊天机器人角色、处理用户数据以及向用户通报潜在危害和数据收集做法。
9月11日,联邦贸易委员会宣布了一项正式调查,要求几家人工智能公司和开发者提供有关儿童使用其产品及其所采取的安全措施的文件。父母和倡导团体一直敦促特朗普政府和国会优先考虑儿童的保护,因为聊天机器人和社交媒体平台的使用增加,给儿童的心理健康带来了负面影响。
最近的报告显示,Meta允许其聊天机器人与儿童进行“浪漫或性感”的对话。Meta是被要求提供有关聊天机器人和AI模型训练细节、年轻用户数据使用情况及加强儿童和青少年保护措施下一步行动的几家公司之一。参议员Josh Hawley(密苏里州共和党人)因担心社交平台上的AI使用缺乏监管,对Meta Platforms Inc.展开了调查,截止日期为9月19日。此外,近期的诉讼和报告指控Meta的聊天机器人参与了剥削行为,对年轻人的心理健康产生了负面影响,甚至导致自杀。
随着人工智能的快速发展,生成式聊天机器人能够“模拟与用户的类人交流和人际关系”,增加了儿童和青少年与聊天机器人建立信任关系的风险。公司将被进一步询问如何通过用户参与获利、开发和审批角色、测试负面影响、利用广告以及遵守《儿童在线隐私保护法》等方面的问题。
《联邦贸易委员会法》第6(b)条授权FTC强制公司提交信息,以便更好地理解市场和技术。此次调查的结果可能会导致社交媒体平台和AI技术的发展发生变化,例如更严格的年龄验证和内容过滤,以及限制数据收集。
一项新的联邦试点计划将于2026年1月开始,使用人工智能来帮助确定某些医疗保险患者的治疗是否可以授权,这一举措引发了民主党人和卫生专家的担忧。该计划名为浪费和不当服务减少(WISeR)模式,将在亚利桑那州、新泽西州、俄亥俄州、俄克拉荷马州、德克萨斯州和华盛顿州六个州运行,针对历史上容易受到欺诈的程序。新泽西州众议员Frank Pallone和俄亥俄州众议员Greg Landsman,他们的选区位于两个州,对该试点表示反对,表达了可能“拒绝救命治疗并激励公司限制护理”的担忧。Landsman代表将其描述为“人工智能死亡小组”。
在关于医疗保健中使用人工智能的小组委员会听证会上,其他证人质疑人工智能在预先授权中是否能改善患者结果,有人断言根本不应在预先授权中使用人工智能。
这一讨论发生在针对大型保险公司提起的诉讼中,这些公司被控诉使用人工智能或算法系统性地拒绝护理。议员们呼吁在推进试点之前进行独立审查。
(以上内容均由Ai生成)