超越 AI 炒作:密切关注云中使用的 AI 工具
快速阅读: 据《印度教商业线》称,腾睿报告警示云AI风险:约30%云AI工作负载有关键漏洞,70%存在未修补漏洞,易受数据操控和泄露威胁。专家呼吁加强云安全措施及治理隐秘AI使用,以应对新挑战。
尽管人工智能能力非凡,但依然潜藏风险,值得我们高度关注。根据暴露管理公司腾睿(Tenable)发布的报告,基于云的人工智能容易遭受恶意组合方式的影响,从而让敏感的人工智能数据和模型面临被操控、数据篡改以及数据泄露的风险。
《2025云AI风险报告》指出:“云计算与人工智能无疑是企业转型的重要推动力,但两者结合时也会引入复杂的网络安全风险。”人工智能虽然智能卓越,但其潜在隐患不容忽视。腾睿的报告揭示了云AI开发工具、框架以及一些顶级云服务提供商提供的AI服务中存在的安全风险状况。报告显示,大约30%的云AI工作负载存在关键的curl漏洞CVE-2023-38545。许多机构正在利用基于云的AI服务推动业务增长。AI技术不仅增加了云端数据量,还提高了数据的敏感性,这可能带来更高的安全和合规风险。腾睿的报告引用了开放Web应用安全项目(OWASP)的观点,指出攻击者试图破坏AI模型,操控其输入数据和输出结果,暴露敏感信息,导致模型表现异常。
“云AI工作负载并非固若金汤,约70%的云AI工作负载至少存在一个未修补的漏洞。”报告指出,“AI训练数据容易受到数据投毒攻击,这可能导致模型结果出现偏差。大约14%的亚马逊贝德罗克(Amazon Bedrock)用户未明确限制对至少一个AI训练桶的公共访问权限,而5%的用户至少有一个权限过于宽松的桶。”
“当我们讨论云计算中的AI应用时,不仅仅是敏感数据面临风险。如果恶意行为者操纵数据或AI模型,可能会引发灾难性的长期后果,比如数据完整性受损、关键系统安全性遭到破坏以及客户信任度下降。”腾睿云安全研究与产品管理副总裁利亚特·海云(Liat Hayun)表示,“云安全措施需要不断进化,以应对AI带来的新挑战,在保护AI数据免遭复杂攻击的同时,助力组织实现负责任的AI创新。”
“当我们讨论云计算中的AI应用时,不仅仅是敏感数据面临风险。如果恶意行为者操纵数据或AI模型,可能会引发灾难性的长期后果,比如数据完整性受损、关键系统安全性遭到破坏以及客户信任度下降。”腾睿云安全研究与产品管理副总裁利亚特·海云(Liat Hayun)指出。
这份隐秘AI风险报告还强调了隐秘AI(员工私下使用AI工具)带来的挑战。“集中治理、教育和监控对于降低隐秘AI风险至关重要。还需要通过禁止未经授权的AI应用的政策进一步保障组织安全,并教育员工认识风险、正确使用AI以及认可的替代方案。”建议组织监测云环境中是否存在隐秘AI活动,并在必要时限制访问。
**相关主题:**
人工智能
网络安全
云服务
发表日期:2025年3月24日
(以上内容均由Ai生成)