如果竞争对手发布“高风险”模型,OpenAI 只是在安全方面给自己留出回旋余地
快速阅读: 《商业内幕》消息,OpenAI在博客中表示,若竞争对手不守规则,其AI安全措施可能调整以避免阻碍自身发展。此变化公布时,OpenAI因安全与透明度遭质疑,前员工亦批评其安全承诺下降。CEO阿尔特曼为公司 evolving 的安全策略辩护,称更包容的用户反馈促成了模型限制的放宽。
如果竞争对手不遵守相同的规则,OpenAI 不希望其 AI 安全措施阻碍自身的发展。在周二的博客文章中,OpenAI 表示,如果“另一家前沿 AI 开发商发布了一个高风险系统却没有相应的安全保障”,它可能会调整其安全要求。该公司表示,只有在确认风险环境已经改变、公开宣布这一决定,并确保不会显著增加严重危害的可能性后,才会做出这样的改变。OpenAI 在更新其“准备机制”时分享了这一变化。该机制是公司为应对可能引入“严重危害新风险”的人工智能所做的准备过程。其安全重点包括网络安全、化学威胁以及人工智能自我改进的能力等领域。
这一转变发生在 OpenAI 因近期采取不同的安全方法而受到批评之际。OpenAI 在更新其“准备机制”时分享了这一变化。该机制是公司为应对可能引入“严重危害新风险”的人工智能所做的准备过程。其安全重点包括网络安全、化学威胁以及人工智能自我改进的能力等领域。周一,它推出了新的 GPT-4.1 系列模型,但没有附带通常随公司新版本发布的模型或系统卡——即安全文件。OpenAI 的发言人告诉 TechCrunch,该模型并非“前沿”,因此不需要报告。今年 2 月,OpenAI 在发布详细说明安全评估的系统卡之前几周推出了其深度研究工具包。这些事件加剧了对 OpenAI 在其人工智能模型发布中对安全和透明度承诺的持续审查。
“OpenAI 正悄然降低其安全承诺,”前 OpenAI 安全研究人员史蒂文·阿德勒周三在 X 平台上发帖回应更新后的框架。阿德勒说,OpenAI 去年 12 月发布的先前框架明确要求对微调模型进行安全性测试。他说,最新更新仅要求在模型以开放权重发布时进行测试,即当模型参数被公开时。相关报道商业内幕讲述你感兴趣的创新故事商业内幕讲述你感兴趣的创新故事商业内幕讲述你感兴趣的创新故事“我希望 OpenAI 能更清楚地表明它已放弃这一先前承诺,”他补充道。OpenAI 没有立即回应《商业内幕》的置评请求。
前 OpenAI 员工支持马斯克的诉讼
阿德勒并不是唯一一个就 OpenAI 的安全问题发声的前员工。上周,12 名前 OpenAI 员工提交了一份动议,请求法官允许他们参与针对公司的诉讼。他们在周五提交的拟提交的法庭之友意见书中表示,OpenAI 计划转变为盈利实体可能会激励公司减少在安全方面的投入,并将权力集中在股东手中。该团体包括曾在安全、研究和政策方面工作的前 OpenAI 员工。
阿尔特曼为公司不断演进的安全策略进行了辩护
OpenAI 首席执行官山姆·阿尔特曼在周五 TED2025 的采访中为公司的不断演进的安全策略进行了辩护。他说,OpenAI 的框架概述了在发布模型之前如何评估“危险时刻”。阿尔特曼还谈到了 OpenAI 行动过快的观点。他说,人工智能公司经常因安全问题暂停或延迟模型发布,但他承认 OpenAI 最近放宽了一些对模型行为的限制。“我们赋予用户更多自由,在我们过去认为涉及言论危害的领域也是如此,”他说。
他解释说,这一变化反映了由用户反馈形成的“更加包容的态度”。“人们确实不希望模型以他们认为不合理的方式对自己进行审查,”他说。
(以上内容均由Ai生成)