CrowdStrike与Meta联手推出AI安全测试套件
快速阅读: CrowdStrike与Meta合作推出CyberSOCEval,旨在评估AI驱动的网络安全工具,帮助企业和开发者选择和优化适合的安全解决方案,促进AI在网络安全领域的应用和发展。
AI技术既是网络安全的威胁也是解决方案。为了测试大型语言模型(LLM)在现实世界中的网络安全任务表现,一套新的基准测试应运而生,旨在帮助开发者构建更优模型。面对众多网络安全工具选项感到不知所措?这套新的基准测试可以帮助评估这些工具,从而找到最适合自身需求的产品。
网络安全软件公司CrowdStrike与Meta合作,推出了一套开源基准测试套件,名为CyberSOCEval,旨在帮助企业从不断增长的AI驱动网络安全工具中筛选出最适合自己需求的产品。CrowdStrike在一份新闻稿中表示:“没有明确的基准,很难知道哪些系统、用例和性能标准能够真正提供针对现实攻击的AI优势。”
这些工具在功能和价格上各不相同,使得网络安全专业人士难以选择。新框架将测试大型语言模型在关键网络安全基准上的表现,包括事件响应、威胁分析理解及恶意软件测试等方面。
CyberSOCEval还旨在为AI模型的现实世界网络安全任务评估提供标准化方法,使组织能够更清晰地了解特定系统的优缺点。此外,它也可能让AI开发者获得更细致的理解,关于企业客户如何使用其模型进行网络安全任务,这可能导致更加专业化且功能更强的模型出现。
随着AI技术的发展,新的网络安全威胁也随之而来,但同时也带来了应对这些威胁的解决方案,形成了一场数字军备竞赛。不良行为者正在利用这项技术以新的、恶意的方式行动,例如密码暴力破解,而安全运营中心(SOC)则越来越多地将AI系统融入其安全工具包中。
一项由万事达卡和《金融时报》联合进行的调查显示,金融服务行业的许多企业通过部署AI驱动的网络安全工具对抗AI支持的欺诈行为,节省了数百万美元。这可以比喻为人体免疫系统内部发生的生物军备竞赛。白细胞必须不断检测并对抗有害病原体,而这些病原体也在不断进化,变得更加难以被发现和抵御疾病药物。
同样地,AI驱动的网络安全必须不断应对新型的AI驱动威胁,这使得开发更可靠的工具变得越来越重要,同时也需要更好的测试框架。
Meta长期以来一直定位自己为开源AI领域的领导者,允许开发者免费访问模型权重甚至源代码来构建应用程序。与CrowdStrike的合作标志着该公司在提供组织更多开源选项方面的最新努力。通过发布一系列可自由访问的LLM评估框架供网络安全专业人士测试和微调,模型的改进速度将远超仅限于构建AI模型的公司进行评估的情况。
“有了这些基准测试,并向安全和AI社区开放进一步改进的机会,我们作为行业可以更快地共同释放AI在防御高级攻击,包括基于AI的威胁方面的潜力。”Meta新成立的超级智能实验室的GenAI产品总监Vincent Gonguet在声明中说道。
现在可以通过GitHub访问CyberSOCEval,并在此处找到更多关于基准测试的信息。
(以上内容均由Ai生成)