RSAC 回顾:代理 AI、治理差距和内部威胁
快速阅读: 据《计算机周刊》称,随着人工智能在网络安全中的广泛应用,安全领导者需警惕其无序扩散的风险,关注用户对“影子AI”的使用情况,并重视集成、责任及治理问题,以确保技术安全可控,造福人类而非制造新威胁。
无论我们是否做好准备,网络安全领域的人工智能全面采用已经从概念验证阶段过渡到了积极实施阶段。事实上,根据云安全联盟(CSA)的研究,90% 的组织要么正在利用生成式人工智能进行安全防护,要么计划这样做。绝大多数IT和安全专业人士都表示,这些技术能够提升他们的能力并支持其工作,从而让他们有更多时间专注于更具意义、更有价值的任务。另一方面,网络犯罪分子也在充分利用这一不断发展的创新——以至于根据Gartner的数据,AI增强型恶意软件已经成为企业领导者面临的重大风险之一。这形成了一种现代版的间谍对峙场景,在这个场景中,正义一方和邪恶一方在技术军备竞赛中展开较量,赌注越来越高,失控的有害人工智能的潜在危险也变得愈发可能。
例如,“代理人工智能”这一术语引起了众多参会者的关注。简而言之,它指的是那些无需持续人类指导或监督就能自主行动以实现目标和解决问题的人工智能系统。然而,要判断这个概念是真正的创新还是仅仅是一种重新包装的营销术语并不容易。当前,安全领导者应将焦点放在用户身上,询问他们在多大程度上参与了“影子AI”,以及他们是如何部署人工智能应用程序的?在我们的研究中,我们发现企业中大多数生成式人工智能(GenAI)的使用(72%)目前归因于“影子IT”。我们知道,如果不加以控制,人工智能将迅速向各种形式的使用方向发展。它已经开始类似于过去几年迅速扩展的云计算采用模式。要达到这种人工智能普及的程度,需要更深入的问题——以及答案——关于集成、责任和治理。这便引出了我们接下来讨论的主题。
—
安全领导者必须警惕的是,如果忽视对人工智能的应用管理,它可能会像失控的野火一样蔓延。因此,我们需要更深刻地思考如何更好地管理和整合人工智能技术,同时明确责任归属和治理框架。只有这样,才能确保这项技术真正为人类服务,而不是带来新的威胁。
(以上内容均由Ai生成)