工程师私用未授权AI工具,企业安全风险加剧

发布时间:2025年10月13日    来源:szf
工程师私用未授权AI工具,企业安全风险加剧

快速阅读: 软件工程师广泛使用私人代理型AI工具,未经雇主许可,导致网络安全风险增加。专家建议建立官方渠道和开发者AI卓越中心,以减轻风险并促进安全创新。

软件工程师处于人工智能开发和应用的前沿。实际上,根据Anthropic的《2025年经济指数》报告,软件开发在企业内所有的人工智能活动中占据主导地位。该研究考察了人工智能在消费和企业领域的应用情况,发现排名前15位的使用集群——约占所有API流量的一半——大多数与编码和开发任务相关。

然而,当工程师没有现成的代理型人工智能工具来满足特定的业务需求时,他们往往会下载并使用自己的私人代理型人工智能平台,通常未得到雇主IT部门的许可。虽然所谓的“影子人工智能”可能为个别软件工程师带来新的效率,但它也给整个公司带来了显著的网络安全风险。

影子人工智能长期以来一直是一个问题,但随着新的自主代理型人工智能能力的出现,这一问题可能会更加严重。GlobalData高级技术分析师Beatriz Valle表示:“影子代理型人工智能带来的挑战超出了传统影子人工智能的范畴。例如,处理敏感数据的员工可能通过提示泄露这些数据。”

Asana的工作创新实验室负责人Mark Hoffman博士领导着一个专注于企业流程的研究单位。Hoffman认为,组织应该假设影子实验正在发生。“目前,工程师需要的数据和上下文与他们在组织内可以访问的经过批准的工具之间存在很大的空白。”Hoffman说,“工程师是解决问题的人,如果他们看到一种让工作变得更简单的方法,就会采取行动。”

他进一步指出,公司缺乏对安全探索途径的指导加剧了这一问题。“更明智的做法是将政策与工程师找到的实际价值相匹配,并提供官方渠道,在受控环境中进行实验。”Hoffman建议,“工程师很可能在个人时间里尝试最新的AI工具,因此应建立一个开发者AI卓越中心,并确保活跃的开发者参与其中,而不仅仅是领导者。”

这可能有助于减轻未经授权的AI使用所带来的安全风险,包括无意中的知识产权共享引发的注入攻击。尽管如此,Hoffman也指出,就像采用任何新技术一样,“与代理型人工智能相关的全部风险仍在显现。”

风险不仅限于企业层面:开发者也可能因未经授权使用代理型人工智能而遭受后果。不过,违规者似乎并不太在意。“许多工程师采用未经批准的工具,因为他们担心请求许可只会引起注意,并可能导致他们的方法被叫停。”Hoffman解释说,“所以,他们选择先行动再请求原谅。”

从长远来看,Hoffman建议工程师们应该尝试向领导层展示他们正在试验的内容,并争取获得有限的内部概念验证的批准。“保持低风险,在非关键领域测试,组建一个精英团队,并记录节省的时间、成本或接受的提交等价值。”他建议,“虽然这比直接操作要慢,但能够建立赢得领导层支持所需的证据。”

如何检测影子代理型人工智能

如果承认影子代理型人工智能的普遍性是第一步,那么检测就成为下一个挑战。然而,这一挑战尚未被克服。Netskope威胁实验室主任Ray Canzanese表示,影子代理型人工智能已经在以明显的方式扩散,据估计,5.5%的组织有员工运行使用LangChain或OpenAI Agent Framework等框架创建的AI代理。

“本地部署往往更难被安全团队检测到。”Canzanese说,“一名工程师在其笔记本电脑上运行一个使用LangChain或Ollama等框架的代理,可能会造成盲点。这就是为什么可见性、实时指导和明确的政策对于管理这种新兴做法至关重要。”

据Canzanese表示,AI平台是影子AI中增长最快的类别,原因在于它们使个人能够轻松创建和定制自己的工具。Canzanese是否认为将来会有某个时刻,每个特定用途都能由代理AI来满足?“随着时间推移,会的,”他说。“像Azure OpenAI、Amazon Bedrock和Google Vertex AI这样的平台的发展,使得个人更容易启动适合自己工作流程的自定义代理。然而,随着时间的推移,我们预计供应商将覆盖更多这些用途,但在目前,工程师自己构建这些工具是非常方便的。”

我们已经看到,平均每个组织每月上传到AI工具的数据略超过8GB,包括源代码、受监管的数据和其他商业敏感信息。如果这些数据的流动还通过未经授权的代理以及未管理的生成式AI,风险就会迅速增加。

本文最初发表于《Verdict》。

(以上内容均由Ai生成)

你可能还想读

芯纬内部人士抛售超10亿美元股票引发警报

芯纬内部人士抛售超10亿美元股票引发警报

快速阅读: 纳斯达克上市公司CoreWeave因内部人士大量抛售股票受关注,10月交易超10亿美元,股价承压下跌,引发投资者对该公司信心的质疑。 纳斯达克上市的CoreWeave (CRVW)因内部人士大量抛售股票而受到广泛关注。10月,一 […]

发布时间:2025年10月24日
升腾首席分析与AI官:用数学背景解决医疗问题

升腾首席分析与AI官:用数学背景解决医疗问题

快速阅读: 安森斯首席分析与人工智能官卡提克·拉贾强调,人工智能是一类问题而非单一事物,需识别并应用正确方法解决。他领导团队利用AI优化医疗流程,提高决策效率,同时注重人才培养和道德领导。 卡提克·拉贾,这家覆盖16个州的大型医疗系统首席分 […]

发布时间:2025年10月24日
格拉斯利宣布法官使用AI致法庭命令出错,实施新政

格拉斯利宣布法官使用AI致法庭命令出错,实施新政

快速阅读: 美国参议院司法委员会主席格拉斯利宣布收到法官们关于AI导致法院命令出错的回应,法官温盖特和尼尔斯承认错误并实施新政策,确保命令准确性,同时法院行政办公室成立AI咨询工作组,发布临时指导方针。 美国参议院司法委员会主席查克·格拉斯 […]

发布时间:2025年10月24日
AI视频生成系统不断进步,ChatGPT创始人更新发展计划

AI视频生成系统不断进步,ChatGPT创始人更新发展计划

快速阅读: 本周,顶尖开发者公布人工智能视频生成系统的最新进展,包括即将推出的安卓应用。该技术融合多种特性,引发艺术与伦理讨论,但仍不断进步,输出效果惊人。 基于人工智能的视频生成系统集多种特性于一身。的确,它们引发了关于艺术、创作者角色及 […]

发布时间:2025年10月24日
美法官承认职员用AI起草错误命令

美法官承认职员用AI起草错误命令

快速阅读: 美国地方法官温盖特承认其法律助理使用AI程序起草了有误的法院命令,引发争议。温盖特表示将加强审查流程,避免类似错误。参议员格拉斯利呼吁制定更明确的AI使用政策。 密西西比州的一名联邦法官承认,其工作人员使用人工智能起草了一份有误 […]

发布时间:2025年10月24日
ChatGPT遭遇重大故障,用户报告服务中断

ChatGPT遭遇重大故障,用户报告服务中断

快速阅读: ChatGPT遭遇重大技术故障,OpenAI确认“高频率错误”,用户反馈广泛。故障始于周四上午11时(美国东部时间),Downdetector数据显示问题激增。 受连续强降雨影响,南部多地出现洪水,相关部门紧急启动防汛响应。Ch […]

发布时间:2025年10月24日
OpenAI推新浏览器Atlas,挑战Google Chrome

OpenAI推新浏览器Atlas,挑战Google Chrome

快速阅读: OpenAI推出ChatGPT Atlas浏览器,挑战谷歌Chrome,集成AI功能助用户高效完成任务,计划近期增加标签组和广告拦截器等新特性。 萨姆·阿尔特曼的OpenAI继续将其生成式AI模型整合到全球大多数人的日常工具—— […]

发布时间:2025年10月24日
ChatGPT短暂故障后恢复,医疗咨询模式引关注

ChatGPT短暂故障后恢复,医疗咨询模式引关注

快速阅读: 医学研究人员报告AI医疗失误案例,患者因咨询ChatGPT致溴化物中毒精神错乱。专家长期担忧此问题,OpenAI推出专门医疗建议模式应对。 几周前,一位医学研究人员报告了一起由AI引发的医疗失误案例,详细描述了一名患者因咨询Ch […]

发布时间:2025年10月24日