AI编码工具引发五分之一安全漏洞,但业界仍看好其未来
快速阅读: AI编码工具在生产环境引发安全风险,24%的代码由AI撰写,美欧均有严重漏洞报告。研究显示,更多安全工具未减少事件,一体化工具更有效。AI代码责任归属成争议焦点。
AI编码工具正在生产环境中制造严重的安全风险,五分之一的首席信息安全官表示,由于AI生成的代码,他们遭遇了重大事件。据Aikido最新报告显示,目前AI编码工具撰写了24%的生产代码——欧洲占21%,美国占29%。然而,这种做法存在风险,因为有69%的安全领导者、安全工程师和开发者在欧洲和美国都发现AI编写代码中存在严重漏洞。
美国受访者受到AI相关缺陷的影响最为严重,43%的组织报告了严重事件,而欧洲仅为20%。研究指出,这可能归因于更好的预防和监督措施。例如,欧盟公司报告的AI生成代码“近乎失误”比美国同行更多,这可能反映了更严格的测试实践。
增加更多的工具来解决这一问题并没有帮助,Aikido发现,拥有更多安全工具的组织反而报告了更多的事件,导致更高的开销和更慢的补救速度。只有不到三分之一(64%)只使用一到两种工具的组织发生了事件,而那些使用六到九种工具的组织中,这一比例高达90%。
一体化AI编码工具有助于填补空白。值得注意的是,使用为开发人员和安全团队设计的工具的团队报告零事件的可能性是那些只使用针对某一特定群体工具的团队的两倍多。
使用独立的应用程序安全和云安全工具的团队遭遇事件的可能性高50%,并且93%的这类团队报告了集成难题,如重复警报或数据不一致。报告还指出,由AI代码引发的事件的责任归属现在成为企业内部的一个严重争议点。例如,53%的受访者将责任归咎于未能解决问题的安全团队,45%的人指责未能在部署前发现问题的开发人员。此外,42%的人指向合并代码的人。Aikido预计这场“责任游戏”将继续升级。一半的开发人员认为,如果他们编写的AI代码引入了漏洞,他们会受到责备,甚至超过安全团队本身。
尽管存在普遍担忧,但企业预计将继续推进AI编码工具的采用。研究指出,十分之九的企业预计AI将在未来五年内接管渗透测试。同时,96%的人认为AI最终将能够编写安全可靠的代码,其中44%的人认为这将在未来三到五年内实现。不过,只有21%的人认为这可以在没有人类监督的情况下完成,这突显了保持人类参与的重要性。
请关注ITPro在Google新闻上的更新,以跟踪我们最新的新闻、分析和评论。
(以上内容均由Ai生成)