对抗性 AI
快速阅读: 据《国家》最新报道,文章指出对抗性人工智能已出现,它能悄无声息地操控AI系统做出错误决策,如自动驾驶误识交通标志等,超40%使用AI的组织曾遭安全漏洞。作者呼吁重视此威胁,加强人工监督,而非盲目信任AI,以防信任危机。
我们像欢迎一位光彩夺目的新访客一样接纳了人工智能——它能为我们指路,撰写邮件,甚至告诉我们该吃什么或看什么。但要是这位访客悄无声息地被操控来对付我们,被迫撒谎、误导,或者故意让汽车撞毁,而我们却毫不知情呢?这并非科幻情节转折,而是对抗性人工智能,而且它已经出现。
对抗性攻击并不会大张旗鼓地进行。它们会篡改蓝图。黑客只需向人工智能输入少量恶意数据或微妙调整输入,系统就开始做出错误决策——不是明显错误,而是刚好足以破坏事情的那种错误。想象一下,自动驾驶汽车将停车标志误认为限速标志。或者聊天机器人因为有人在它的记忆中注入偏颇提示而微妙地给出带有偏见的回答。这不是某种边缘漏洞。超过40%的使用人工智能的组织都经历过安全漏洞,其中许多涉及数据操纵或模型篡改。然而,公众对人工智能的讨论仍停留在伦理委员会和就业替代上。我们在争论人工智能应该做什么,却忽视了它如何容易被操控去做不该做的事。
巴基斯坦大使在美国战略商务午餐会上会见商界领袖。对抗性攻击特别危险,因为它们看起来不像攻击。它们是隐秘的。几行改动的代码,一个稍微被污染的数据集,一个在关键时刻偷偷溜进来的提示语。砰!你的AI开始自信地胡说八道,或者引导你的商业决策走向悬崖。这不仅仅是技术上的疏忽,这是信任危机局面。我们越依赖AI——在汽车、医院、教室里——当AI被破坏时就越危险。最可怕的是?大多数人,老实说,很多组织,在造成严重后果之前甚至不会注意到。
解决办法是什么?首先要认真对待这种威胁。我们需要积极监控,没错——但也要有真正的人类监督。不只是信任系统的仪表盘,而是让人们提出艰难的问题并像鹰一样观察输出。我们需要停止把AI当作某种神秘的预言者,而是把它当作任何其他工具:可能会坏掉,会被黑客入侵,更糟的是,会被操控成看起来完美运作,实际上却在做相反的事情。
中国投资者将在卡拉奇设立微型卡车组装厂。像许多国家一样,巴基斯坦以开放态度拥抱AI,尤其容易受到此类攻击的影响。我们正在快速构建系统——但没有足够关注这些系统可能如何悄悄地被用来对付我们。我们需要提前应对,而不是等待灾难迫使对话。AI本身并不危险。但盲目信任它是危险的。而对抗性AI已经在破坏这种信任。现在是我们警觉的时候到了。
作者:M.艾哈迈德
作者是英国斯塔福德郡大学伦敦分校网络安全与取证硕士,是一位网络安全专家。
标签:对抗性
(以上内容均由Ai生成)