AI

AI安全工具表面光鲜,实则无力应对真实威胁

发布时间:2025年10月18日    来源:szf
AI安全工具表面光鲜,实则无力应对真实威胁

快速阅读: 新兴安全初创公司宣称通过“代理”和“人工智能”改进安全系统,但实际上大多只是现有技术的新包装,缺乏实质性创新,未能有效帮助安全团队识别关键威胁。

近来,似乎每一家新兴的安全初创公司都在说同样的话。它们声称通过“代理”重新设计了检测与响应系统,利用“人工智能”解读安全数据,能够在您的技术栈中“连接各个点”。这些公司的网站看起来非常出色,承诺也十分大胆。然而,当您真正看到演示时,这种幻觉就会破灭。大多数工具只是现有技术栈上的薄层,旨在以新的用户界面重新包装发现和警报。最好的情况下,它们运行几个增强步骤,给您提供一个更长的调查清单。

您可能感兴趣的文章:

– 作为一名人工智能专家,这里是如何区分真正的AI创新与市场炒作的方法

– 生成式AI的自满如何成为网络安全的隐性危机

– 代理型AI的安全风险虽然具有挑战性,但解决方案却出奇地简单

最糟糕的情况是,它们甚至没有过滤掉噪音,只是将其格式化并“增加上下文”(实际上,这使得内容更长且难以消化)。我们直接从那些经历过与供应商合作周期的团队那里听到这一点:令人印象深刻的网站,自信的介绍,令人失望的演示。每次都会提出同样的问题:“就这些吗?这就是全部吗?”

这对买家乃至整个行业都是一个真正的问题。在安全团队确实感到压力山大、预算紧缩、人才稀缺的时候,我们无法承受更多看起来聪明但实际上并不工作的工具。

当内部没有任何实质内容时

“用于安全的人工智能”听起来很有变革性……直到您看到它实际运作。我们与那些体验过最新“AI原生”平台演示的团队交谈过,结果发现该系统只是重述了所接收的数据。例如,CrowdStrike的警报变成了整洁总结的CrowdStrike警报,加上其他警报。漏洞扫描报告变成了……更长的漏洞扫描报告。

这些团队希望得到帮助,了解哪些才是真正重要的。而他们得到的却是对同一堆难以解读的输入的不同封装。

这些工具通常会收集来自您技术栈的所有警报,运行一些增强程序,然后将这些数据标记为“有上下文”的堆回给您。这些系统经常自称为优先级引擎或副驾,但其内部逻辑通常是模糊的,输出很少具有可操作性。即使是在演示中展示的功能,在真实数据下也会失效,因为现实中的数据远不如营销案例那么干净。正如我们的一位客户最近所说:“这个工具错了吗?不。但它也没什么用。”

开发这些工具的团队正在尽最大努力解决实际问题。但正如任何在安全领域工作足够长时间的人都知道的那样:除非您的工具真正理解您环境中的情况,否则没有捷径可以实现有效的决策。而大多数这些工具并不具备这样的能力。

超越封装所需的因素

如果您正在评估声称“利用人工智能”的安全工具,不妨退一步思考:到底完成了什么工作?

封装工具可以整合来自其他平台的输出,将其重新格式化为自然语言,并通过聊天界面显示,但这与交付成果不同。

以下是您应该寻找的特征:

– 真正的系统记录集成:工具应能直接与您基础设施的实际系统接口,拥有自己的“大脑”,而不是仅仅依赖其他供应商的信号。没有这种深度,“洞察”就只是重新包装的通知。

– 定义明确的自主工作流程:询问工具是否按计划运行,独立提供结果,并能在无需持续提示的情况下推动行动。如果每次都需要询问,那它只是一个聊天机器人。

– 基于实际状况的决策:封装工具可以重复其他工具的说法。而更智能的系统则能够理解这些信号与您的云状态、风险概况、合规状态之间的关系。它可以解释为什么某件事重要以及应该如何应对。

– 可见且可重复的结果:工具能否展示其工作过程?它能否解释为何优先考虑某个风险而非另一个,或者它是如何得出建议的?真正的情报应该是可检查的。

– 不仅仅是摘要,而是答案和行动。

你寻找的不是内容生成器,而是伙伴。这意味着需要提供结构化的输出,而不仅仅是更好的措辞。

最实用的工具会以团队可以采取行动的格式提供结果,例如优先级排序的处理队列、可直接分享的合规报告或与环境相匹配的补救指导。这些输出帮助安全团队将精力集中在关键点上,并在各利益相关者之间清晰沟通。

人人都渴望黄金,但真正深入挖掘的人却寥寥无几。

目前正发生一场竞赛,新的AI原生安全工具竞相上市,追求自动化洞察和无需人工干预的补救。然而,在这场竞赛中,许多工具跳过了最难也是最重要的一步:收集有意义的数据信号。

构建一个包装器很容易,快速接入他人的数据并用更华丽的语言重述警报也很快。但那些不收集自身遥测数据的系统无法真正进行推理。

它们无法识别真实情况,也无法判断哪些事项重要。当然,它们更不可能自信地采取行动。其结果是,越来越多的工具承诺可以采取行动……但实际上只能提供总结。

强大的系统从直接信号开始。深入的遥测数据提供了观察环境实际状态的窗口:正在运行什么,发生了哪些变化,以及最重要的是什么。

这是让AI超越模式匹配的原始材料。有了正确的信号,推理成为可能,行动变得可信,智能从理论转向实践。

我们正目睹着一场实时上演的AI淘金热。各家公司竞相成为第一个,迅速筹集资金,推出任何可以贴上“AI原生”标签的产品。

但在这种竞争中,很多团队跳过了最难的部分:理解他们所建立的基础。获取信号需要时间,将其与现实世界的结果联系起来则需要更多时间。现在投资于这一基础的公司将在尘埃落定时依然屹立不倒。

我们介绍了最佳的AI网站构建器。

本文是TechRadarPro专家见解频道的一部分,该频道汇集了当今技术行业最杰出的思想领袖。这里表达的观点属于作者,不一定代表TechRadarPro或Future plc的立场。如果您有兴趣贡献内容,请点击此处了解更多信息:

https://www.techradar.com/news/submit-your-story-to-techradar-pro

主题

AI

珍妮特·谢尔曼

社交媒体链接导航

珍妮特·谢尔曼是RAD安全的产品战略与市场总监。

(以上内容均由Ai生成)

关键词: AI安全威胁工具

你可能还想读

芯纬内部人士抛售超10亿美元股票引发警报

芯纬内部人士抛售超10亿美元股票引发警报

快速阅读: 纳斯达克上市公司CoreWeave因内部人士大量抛售股票受关注,10月交易超10亿美元,股价承压下跌,引发投资者对该公司信心的质疑。 纳斯达克上市的CoreWeave (CRVW)因内部人士大量抛售股票而受到广泛关注。10月,一 […]

发布时间:2025年10月24日
升腾首席分析与AI官:用数学背景解决医疗问题

升腾首席分析与AI官:用数学背景解决医疗问题

快速阅读: 安森斯首席分析与人工智能官卡提克·拉贾强调,人工智能是一类问题而非单一事物,需识别并应用正确方法解决。他领导团队利用AI优化医疗流程,提高决策效率,同时注重人才培养和道德领导。 卡提克·拉贾,这家覆盖16个州的大型医疗系统首席分 […]

发布时间:2025年10月24日
格拉斯利宣布法官使用AI致法庭命令出错,实施新政

格拉斯利宣布法官使用AI致法庭命令出错,实施新政

快速阅读: 美国参议院司法委员会主席格拉斯利宣布收到法官们关于AI导致法院命令出错的回应,法官温盖特和尼尔斯承认错误并实施新政策,确保命令准确性,同时法院行政办公室成立AI咨询工作组,发布临时指导方针。 美国参议院司法委员会主席查克·格拉斯 […]

发布时间:2025年10月24日
AI视频生成系统不断进步,ChatGPT创始人更新发展计划

AI视频生成系统不断进步,ChatGPT创始人更新发展计划

快速阅读: 本周,顶尖开发者公布人工智能视频生成系统的最新进展,包括即将推出的安卓应用。该技术融合多种特性,引发艺术与伦理讨论,但仍不断进步,输出效果惊人。 基于人工智能的视频生成系统集多种特性于一身。的确,它们引发了关于艺术、创作者角色及 […]

发布时间:2025年10月24日
美法官承认职员用AI起草错误命令

美法官承认职员用AI起草错误命令

快速阅读: 美国地方法官温盖特承认其法律助理使用AI程序起草了有误的法院命令,引发争议。温盖特表示将加强审查流程,避免类似错误。参议员格拉斯利呼吁制定更明确的AI使用政策。 密西西比州的一名联邦法官承认,其工作人员使用人工智能起草了一份有误 […]

发布时间:2025年10月24日
ChatGPT遭遇重大故障,用户报告服务中断

ChatGPT遭遇重大故障,用户报告服务中断

快速阅读: ChatGPT遭遇重大技术故障,OpenAI确认“高频率错误”,用户反馈广泛。故障始于周四上午11时(美国东部时间),Downdetector数据显示问题激增。 受连续强降雨影响,南部多地出现洪水,相关部门紧急启动防汛响应。Ch […]

发布时间:2025年10月24日
OpenAI推新浏览器Atlas,挑战Google Chrome

OpenAI推新浏览器Atlas,挑战Google Chrome

快速阅读: OpenAI推出ChatGPT Atlas浏览器,挑战谷歌Chrome,集成AI功能助用户高效完成任务,计划近期增加标签组和广告拦截器等新特性。 萨姆·阿尔特曼的OpenAI继续将其生成式AI模型整合到全球大多数人的日常工具—— […]

发布时间:2025年10月24日
ChatGPT短暂故障后恢复,医疗咨询模式引关注

ChatGPT短暂故障后恢复,医疗咨询模式引关注

快速阅读: 医学研究人员报告AI医疗失误案例,患者因咨询ChatGPT致溴化物中毒精神错乱。专家长期担忧此问题,OpenAI推出专门医疗建议模式应对。 几周前,一位医学研究人员报告了一起由AI引发的医疗失误案例,详细描述了一名患者因咨询Ch […]

发布时间:2025年10月24日