Microsoft 呼吁“影子 AI”,提供保护数据的方法
快速阅读: 据《媒体邮报》最新报道,微软发文:警惕“影子人工智能”带来的数据泄露风险。随着生成式AI普及,未经授权的AI应用增加敏感数据泄露隐患。微软推出Entra AI网页类别过滤器及Edge浏览器数据丢失防护功能,强化访问控制,防范风险。
劳里·沙利文(@lauriesullivan),昨天
**影子人工智能**——指员工使用的未经批准或未授权的人工智能工具,通常是组织中最难监控的一种人工智能类型。但微软在其博客中提出了关于如何利用安全和治理工具来保护数据、规范其使用,并应对不断演变的监管要求的见解。
监管机构、品牌和出版商等若缺乏监督,可能导致数据泄露。微软提出了一系列措施,可以帮助广告和营销团队以及安全团队执行政策,从而防止敏感数据被输入到生成式人工智能应用程序中,包括ChatGPT、Copilot Chat、DeepSeek到Google Gemini等。
通过基于云的服务轻松访问的人工智能工具可能会导致数据泄露,从网站上的简单人工智能聊天机器人,到用于数据分析的媒体购买模型。这种情况可能出现在某个部门中,个人或团队在推动创新时使用一个人工智能应用程序来提高生产力并实现目标,而没有等待广告、营销或IT团队审查和批准该平台。
人工智能使通过信号识别高价值受众变得更加容易,这些信号超越了像Microsoft Performance Max这样的产品中的传统目标定位,但如果将其集成到未获品牌批准的工具中,则可能带来数据泄露的风险。
影子人工智能可能导致重大风险,例如数据泄露和违反数据保护法规。
对许多媒体公司而言,采用人工智能似乎是一项艰巨任务,但实施保护数据、规范其使用并应对不断变化的监管要求的方法变得至关重要。
“随着生成式人工智能的快速普及,许多组织发现了广泛使用尚未获得IT或安全团队批准的人工智能应用程序的情况,”微软安全副总裁瓦苏·贾卡尔在其博客文章中写道,“这种未经授权且不受保护的人工智能使用现象催生了‘影子人工智能’现象,大大增加了敏感数据泄露的风险。”
贾卡尔在文中宣布了Microsoft Entra中AI网页类别过滤器的一般可用性。Microsoft Entra是一套身份与访问管理(IAM)产品,可帮助组织确保对其资源的安全访问。
这有助于通过执行管理影子人工智能的策略来强化访问控制并降低风险。下一步是通过Microsoft Edge for Business内置的浏览器数据丢失防护功能,防止用户将敏感数据泄露至人工智能应用中。
(以上内容均由Ai生成)