科技行业试图减少 AI 的普遍偏见。现在特朗普想结束其“觉醒人工智能”的努力
快速阅读: 据《在线邮件》最新报道,特朗普政府正终止人工智能中的“觉醒式”偏见项目。众议院司法委员会向多家科技巨头发出传票,调查其公平性举措。此举引发专家担忧,认为可能抑制技术的多元化发展。
科技行业曾努力减少人工智能中的普遍偏见。如今,特朗普政府想要终止这些“觉醒式人工智能”项目。
美联社报道
发布日期:2025年4月27日06:02 EDT
发布日期:更新日期:2025年4月27日06:02 EDT
**马萨诸塞州剑桥**(美联社)——在从工作场所多元化、公平性和包容性计划撤退后,科技公司现在可能面临对其人工智能产品多元化工作的第二次审视。上个月,众议院司法委员会向亚马逊、谷歌、Meta、微软、OpenAI及其他十家科技公司发出传票。根据传票内容,过去推动人工智能开发中的“公平性”以及遏制“有害且有偏见输出”的努力成为了调查目标。
美国商务部标准制定部门在其呼吁与外部研究人员合作时删去了有关人工智能公平性、安全性和“负责任的人工智能”的内容。而是指示科学家专注于“减少意识形态偏见”,以“促进人类繁荣和经济竞争力”。美联社获得的一份文件副本中提到了这一点。
在某些方面,科技工作者已经习惯了华盛顿驱动的优先事项变化影响他们的工作。但最新的转变引发了该领域专家的担忧,包括哈佛大学社会学家埃利斯·蒙克,几年前他曾被谷歌邀请帮助使其人工智能产品更具包容性。
当时,科技行业已经意识到其训练机器“看”和理解图像的AI分支存在问题。计算机视觉具有巨大的商业潜力,但也反映了早期相机技术中存在的历史偏见,这些技术以一种不讨好的方式描绘了黑人和棕色人种。
“当黑人或肤色较深的人出现在画面中时,我们有时看起来很可笑,”蒙克说,他是一位肤色主义学者,这是一种基于人们肤色和其他特征的歧视形式。谷歌采用了蒙克发明的颜色量表,改进了其AI图像工具对人类肤色多样性的呈现,取代了几十年前为治疗白人皮肤病患者而设计的标准。
“消费者对这些改变给予了极大的积极反馈,”他说。现在蒙克担心这类努力是否会在未来继续。
虽然他认为他的Monk肤色量表不会受到威胁,因为它已经融入了谷歌和其他地方的数十种产品中——包括手机摄像头、视频游戏、AI图像生成器——但他和其他研究人员担心,新的氛围正在抑制未来的倡议和资金,使技术更好地服务于所有人。
“谷歌希望他们的产品能适用于所有人,无论是在印度、中国还是非洲等地。这部分内容对DEI(多元化、公平性和包容性)来说是免疫的,”蒙克说。“但未来这类项目的资金是否会减少?绝对会,特别是在政治氛围改变且市场压力大的时候。”
特朗普削减了数百项与DEI相关的科学、技术和健康资助拨款,但其对聊天机器人和其他人工智能产品商业开发的影响更为间接。
在调查人工智能公司时,众议院司法委员会主席、共和党众议员吉姆·乔丹表示,他想查明前总统乔·拜登的政府是否“胁迫或勾结”它们来审查合法言论。白宫科学技术政策办公室主任迈克尔·克拉茨奥斯本月在德克萨斯州的一次活动中表示,拜登的人工智能政策“打着平等的名义促进社会分裂和再分配”。
特朗普政府拒绝让克拉茨奥斯接受采访时引用了几个例子来说明他的意思。一个是拜登时代的AI研究战略中的一句话:“如果没有适当的控制,人工智能系统可能会放大、延续或加剧个人和社区的不平等或不理想结果。”
即使在拜登就职之前,越来越多的研究和个人轶事已经引起了人们对人工智能偏见危害的关注。一项研究表明,自动驾驶汽车技术很难检测到肤色较深的行人,使他们处于更大的被碾压危险中。另一项研究要求流行的AI文本到图像生成器制作一张外科医生的照片,发现它们几乎总是生成白人男性,比例高达98%,远远高于现实比例,即使是在男性主导的领域。
用于解锁手机的面部匹配软件错误识别了亚洲面孔。美国城市警方基于错误的面部识别匹配错误逮捕了黑人男子。十年前,谷歌自己的照片应用将两张黑人的照片归类为“大猩猩”类别。
甚至特朗普政府的第一批政府科学家在2019年得出结论认为,面部识别技术在种族、性别或年龄基础上表现不均。
拜登的当选促使一些科技公司加速关注人工智能公平性。2022年OpenAI的ChatGPT的到来带来了新的优先事项,激发了新的AI应用程序用于撰写文档和生成图像的商业热潮,迫使其放松谨慎态度并跟上潮流。
然后出现了谷歌的Gemini AI聊天机器人——以及去年一次有缺陷的产品发布,这使其成为保守派希望解开的“觉醒式人工智能”的象征。
如果任由AI工具自行生成图像,它们容易延续从所有训练过的视觉数据中积累的刻板印象。谷歌也不例外,根据公司的公开研究,当被要求描绘不同职业的人时,它更倾向于选择浅色皮肤和男性,而在选择女性时,则更倾向于年轻女性。
谷歌在一年多前推出Gemini AI图像生成器之前尝试设置技术护栏以减少这些差异。结果,它过度补偿了偏见,将有色人种和女性置于不准确的历史背景中,例如回应请求美国开国元勋的图像时,显示的是穿着18世纪服装、看似黑人、亚洲人和美洲原住民的男性。
谷歌迅速道歉并暂时下架了该功能,但愤怒成了政治右翼的集结口号。
谷歌首席执行官桑达尔·皮查伊坐在附近时,副总统JD·沃恩在巴黎的AI峰会上谴责了通过AI推进“完全非历史的社会议程”,并指出谷歌的AI图像生成器“试图告诉我们乔治·华盛顿是黑人,或者一战中的美国士兵实际上是女性。”
“我们必须铭记那个荒谬时刻的教训,”沃恩在集会上宣称。“从中我们可以得出结论,特朗普政府将确保在美国开发的人工智能系统免受意识形态偏见,并永远不剥夺我们的公民言论自由的权利。”
出席那次演讲的前拜登科学顾问阿隆德拉·纳尔逊说,特朗普政府对人工智能“意识形态偏见”的新关注在某种程度上是对多年来解决算法偏见的努力的认可,这种偏见可能会影响住房、抵押贷款、医疗保健等人们生活的方方面面。
“从根本上说,说人工智能系统存在意识形态偏见就是承认并关心算法偏见的问题,这是我们许多人长期以来一直担心的问题,”纳尔逊说,他曾担任白宫科学技术政策办公室代理主任,共同起草了一套保护人工智能应用中的公民权利和公民自由的原则。
出席那次演讲的前拜登科学顾问阿隆德拉·纳尔逊说,特朗普政府对人工智能“意识形态偏见”的新关注在某种程度上是对多年来解决算法偏见的努力的认可,这种偏见可能会影响住房、抵押贷款、医疗保健等人们生活的方方面面。
但纳尔逊认为在贬低公平人工智能倡议的情况下没有太多合作的空间。
“我认为,在当前的政治环境下,很遗憾,这种合作可能性不大,”她说。“被不同命名的问题——算法歧视或算法偏见,以及意识形态偏见——将被遗憾地视为两个不同的问题。”
哈佛大学社会学教授、Monk肤色量表开发者埃利斯·蒙克在他的办公室接受采访,周三(2025年2月26日)在马萨诸塞州剑桥。(美联社照片/查尔斯·克鲁帕)
分享或评论这篇文章:
科技行业曾努力减少人工智能中的普遍偏见。如今……
电子邮件
抱歉,我们目前不接受这篇文章的评论。
(以上内容均由Ai生成)