工程师私用未授权AI工具,企业安全风险加剧
快速阅读: 软件工程师广泛使用私人代理型AI工具,未经雇主许可,导致网络安全风险增加。专家建议建立官方渠道和开发者AI卓越中心,以减轻风险并促进安全创新。
软件工程师处于人工智能开发和应用的前沿。实际上,根据Anthropic的《2025年经济指数》报告,软件开发在企业内所有的人工智能活动中占据主导地位。该研究考察了人工智能在消费和企业领域的应用情况,发现排名前15位的使用集群——约占所有API流量的一半——大多数与编码和开发任务相关。
然而,当工程师没有现成的代理型人工智能工具来满足特定的业务需求时,他们往往会下载并使用自己的私人代理型人工智能平台,通常未得到雇主IT部门的许可。虽然所谓的“影子人工智能”可能为个别软件工程师带来新的效率,但它也给整个公司带来了显著的网络安全风险。
影子人工智能长期以来一直是一个问题,但随着新的自主代理型人工智能能力的出现,这一问题可能会更加严重。GlobalData高级技术分析师Beatriz Valle表示:“影子代理型人工智能带来的挑战超出了传统影子人工智能的范畴。例如,处理敏感数据的员工可能通过提示泄露这些数据。”
Asana的工作创新实验室负责人Mark Hoffman博士领导着一个专注于企业流程的研究单位。Hoffman认为,组织应该假设影子实验正在发生。“目前,工程师需要的数据和上下文与他们在组织内可以访问的经过批准的工具之间存在很大的空白。”Hoffman说,“工程师是解决问题的人,如果他们看到一种让工作变得更简单的方法,就会采取行动。”
他进一步指出,公司缺乏对安全探索途径的指导加剧了这一问题。“更明智的做法是将政策与工程师找到的实际价值相匹配,并提供官方渠道,在受控环境中进行实验。”Hoffman建议,“工程师很可能在个人时间里尝试最新的AI工具,因此应建立一个开发者AI卓越中心,并确保活跃的开发者参与其中,而不仅仅是领导者。”
这可能有助于减轻未经授权的AI使用所带来的安全风险,包括无意中的知识产权共享引发的注入攻击。尽管如此,Hoffman也指出,就像采用任何新技术一样,“与代理型人工智能相关的全部风险仍在显现。”
风险不仅限于企业层面:开发者也可能因未经授权使用代理型人工智能而遭受后果。不过,违规者似乎并不太在意。“许多工程师采用未经批准的工具,因为他们担心请求许可只会引起注意,并可能导致他们的方法被叫停。”Hoffman解释说,“所以,他们选择先行动再请求原谅。”
从长远来看,Hoffman建议工程师们应该尝试向领导层展示他们正在试验的内容,并争取获得有限的内部概念验证的批准。“保持低风险,在非关键领域测试,组建一个精英团队,并记录节省的时间、成本或接受的提交等价值。”他建议,“虽然这比直接操作要慢,但能够建立赢得领导层支持所需的证据。”
如何检测影子代理型人工智能
如果承认影子代理型人工智能的普遍性是第一步,那么检测就成为下一个挑战。然而,这一挑战尚未被克服。Netskope威胁实验室主任Ray Canzanese表示,影子代理型人工智能已经在以明显的方式扩散,据估计,5.5%的组织有员工运行使用LangChain或OpenAI Agent Framework等框架创建的AI代理。
“本地部署往往更难被安全团队检测到。”Canzanese说,“一名工程师在其笔记本电脑上运行一个使用LangChain或Ollama等框架的代理,可能会造成盲点。这就是为什么可见性、实时指导和明确的政策对于管理这种新兴做法至关重要。”
据Canzanese表示,AI平台是影子AI中增长最快的类别,原因在于它们使个人能够轻松创建和定制自己的工具。Canzanese是否认为将来会有某个时刻,每个特定用途都能由代理AI来满足?“随着时间推移,会的,”他说。“像Azure OpenAI、Amazon Bedrock和Google Vertex AI这样的平台的发展,使得个人更容易启动适合自己工作流程的自定义代理。然而,随着时间的推移,我们预计供应商将覆盖更多这些用途,但在目前,工程师自己构建这些工具是非常方便的。”
我们已经看到,平均每个组织每月上传到AI工具的数据略超过8GB,包括源代码、受监管的数据和其他商业敏感信息。如果这些数据的流动还通过未经授权的代理以及未管理的生成式AI,风险就会迅速增加。
本文最初发表于《Verdict》。
(以上内容均由Ai生成)