纽约家长呼吁州长签署AI安全法案
快速阅读: 12月15日消息,纽约州立法机构通过一项AI监管法案,仅对年投入数亿美元以上的大型企业设限,要求其披露重大安全事件,并禁止上线可能引发百人以上伤亡或巨额损失的高风险模型,旨在防范公共安全威胁,同时减轻中小开发者负担。
纽约州立法机构近日通过一项人工智能监管法案,聚焦规范大型AI开发企业。该法案明确,仅对年投入数亿美元以上的超大规模公司实施监管,而非覆盖所有AI开发者。
根据法案要求,相关企业须向州总检察长披露重大安全事件,并公开其安全计划。此外,若前沿人工智能模型可能造成“不合理的关键性危害风险”,则禁止上线。此类风险被界定为:导致100人以上死亡或重伤;因生成化学、生物、放射性及核武器造成10亿美元以上的财产权益损失;或AI系统在无实质性人类干预下自主行动,且其行为若由人类实施将构成特定刑事犯罪。
该立法旨在防范高风险人工智能技术带来的潜在公共安全威胁,同时避免对中小型创新主体施加过重合规负担。目前,法案已提交州长审议,后续进展将视签署情况而定。
(以上内容均由Ai生成)