OpenAI警告下一代AI模型推高网络安全风险
快速阅读: OpenAI发布声明称,其下一代AI模型可能带来“高”级别网络安全风险,已具备开发零日漏洞的能力,并宣布推出分级访问计划、成立“前沿风险委员会”,以加强防御协作和风险管控。
近日,OpenAI通过官方博客发布警示,指出其下一代人工智能模型在能力快速提升的同时,可能带来的网络安全风险已升至“高”级别。
该机构强调,先进AI模型已不仅是理论威胁,极有可能具备开发针对防御严密系统的有效零日远程漏洞的能力。此外,这些模型还可能在针对企业和工业环境的入侵行动中发挥强大辅助作用,引发严重的现实安全影响。
面对日益增长的潜在风险,OpenAI披露了双管齐下的应对策略。一方面,其内部团队正加大投入,提升模型在防御性网络安全任务中的表现,并积极开发可协助安全人员完成代码审计与漏洞修补的工具,实现“以AI之矛,御AI之盾”。另一方面,公司正实施多重风险控制措施,包括访问控制、基础设施加固、出口控制及持续监测。
为进一步强化外部协作与风险治理,OpenAI宣布两项新举措:一是推出分级访问增强计划,向符合条件、从事网络防御的用户与企业提供分级访问功能,以支持其防御工作;二是成立“前沿风险委员会”,邀请经验丰富的网络防御专家和安全从业人员与内部团队紧密协作。该委员会初期聚焦网络安全,未来将逐步拓展至其他前沿技术领域,以应对更广泛的风险挑战。
(以上内容均由Ai生成)