不伤害,安全地构建 AI
快速阅读: 据《福布斯》最新报道,专家强调人工智能安全性需全局考虑,涉及政治、商业及伦理。模型可能引发偏见和不公,需谨慎评估与管理。地缘政治竞争下,中美均重视AI发展,需以负责任态度推进AI安全。
警示图标、安全信息和感叹号三角形图标,放置在一个带有安全警报的注意交通背景上。图片来源:盖蒂图片社
当谈及与人工智能相关的安全性时,许多人会告诉你:“你的猜测和我的一样。”然而,背后有许多专家正在为此付出努力。人们普遍认为,在使用这些非常强大的技术模型时,我们必须采用“不造成伤害”的理念。我想分享一些我在最近一次“想象力行动”小组讨论中听到的想法,我们讨论了真正涉及的问题以及如何在未来保护人们。
**政治性质的背景**
从一般意义上讲,小组成员谈到了人工智能的背景是“政治性质的”。或者,我应该说,在希腊意义上的政治,正如历史学家指出的那样,“城邦是古希腊文明的基石,作为主要的政治、社会和经济单位。”换句话说,我们如何使用人工智能与人们的政治理论和政治结果有关。我们使用人工智能的方式受到我们的世界观和地缘政治情感的影响。
“当政治运作良好时,它是看不见的,因为商业继续运转,艺术、文化等一切都在继续运转,你并没有真正关注政治,”小组成员杰米·梅茨尔说道,他是《超级融合》一书的作者。“但我是难民家庭出身。我在柬埔寨生活过。我在阿富汗度过很多时间。当政治变糟时,政治就是唯一的话题。所以我们所谈论的一切,关于技术、人工智能,都存在于政治背景下,政治需要顺利进行才能为其他事物创造空间,这主要是在国家层面。”
在商业方面,我们也必须看看如何根据不同的用途将信息隔离。这种做法的一个目标是全球治理——一种能够看到大局并普遍应用其原则的人工智能治理。现在监管人工智能。
**许多人的AI恐惧**
许多人在谈论他们的AI恐惧时,都会提到《终结者》电影中的Skynet技术,其中未来系统可能掌权时会带来模糊的厄运。但有些人认为情况并非如此明显:人工智能的强大影响力可能更为微妙,并且更多地体现在人工智能已经如何引导我们的社会结果。
“今天,已经有算法拒绝人们获得住房、工作和信贷的机会,甚至因为有偏见的算法错误解释了他们是谁,而使他们面临被错误逮捕的风险。我们的法律系统又通过法律不公及系统性偏见加剧了这个技术错误,”小组成员阿尔伯特·坎恩说道。
坎恩以一个名为Midas的系统为例,该系统原本旨在寻找保险系统中的欺诈行为。但他指出,这个系统过于广泛,开始误伤无辜的人,给他们带来各种困难。
“当我们谈论人工智能安全方面出错的规模时,这不是指遗漏了一些合规检查清单上的项目,”他说。“这是真正的关乎人们生计、自由,甚至在某些情况下,甚至是生命的问题。”
这是我们需要注意的人工智能安全问题。
**后备箱中的老虎**
诺埃尔·拉塞尔对人工智能安全有不同的比喻,基于她在Alexa和其他行业的工作经验,她看到了具有扩展能力的小型模型,并思考了最终的结果。
“我称这些小模型为‘小老虎’,”她说。“因为每个人在得到新模型时都会想,‘天哪,它太可爱了,我很喜欢它,(在模型工作中)我迫不及待地想加入那个团队,这将会很有趣。’但没有人问,‘嘿,看看那些爪子。你会长多大?或者出生时就有的锋利牙齿。你会吃什么?你会吃多少?你会住在哪里,当我不再想要你时会发生什么?’23andMe,我们在公开市场出售DNA……你知道吗,我最大的担忧是我们没有意识到,在一片可爱的‘小老虎’和对技术的兴奋热情中,它有一天可能不会长大……伤害我们,伤害我们的孩子,但最重要的是,我们实际上有能力改变这一点。”
**设定场景**
小组成员还谈到了衡量网络安全以及如何实现这一目标。
“在木工中,格言是‘量两次,切一次’,”小组成员卡姆·凯里说。“而在人工智能方面,则必须是‘测量、测量、再测量’。这是一个持续的过程,从系统的构建到系统的部署,这样你就可以观察结果,(并)避免(偏差)问题。有很多好的工作正在进行。我认为国家标准与技术研究院(NIST),即我以前在商务部的一个机构,正在出色地开发测量系统,并正在与人工智能安全研究所一起开展这项工作。这需要扩大规模。”
**回到地缘政治局势**
回到地缘政治局势,小组成员提到了美国和中国之间的竞争,这两个巨头在新技术领域正竭尽全力主导地位。
拉塞尔引用了一个名为‘我爱人工智能’的组织,该组织正在帮助推动变革时代,并为人工智能提供广泛的焦点小组。
“我发现,从12岁到85岁的人都渴望理解:‘你所说的这个世界正在变化是什么意思,我该如何保持水面以上?’”她说。
拉塞尔随后也提到了人工智能安全的紧迫性和如何实现这一目标。这不是一份你可以简单签字确认的清单。这不是你所说的框架,而是你最终思考、开发软件、创立公司的方式,这需要负责任。这些都是我认为在记录我们这个时代迈向人工智能安全进程中重要的想法。
(以上内容均由Ai生成)