AI 创新和道德 – 为什么两者并不相互排斥(除非当权者决定它们是)
快速阅读: 《Diginomica (数码化)》消息,海瑟·道格指出,尽管美国和英国政府不愿受监管约束,但大企业在构建人工智能系统时仍注重安全性、透明度和伦理。她强调,由于开发者多为男性,存在性别偏见风险,但通过治理可以克服。监管不会阻碍创新,反而能确保产品的公平性。她还提到,在大型数据项目中,应避免性别和种族偏见,以确保技术的公正性和伦理性。
海瑟·道格是一位女性,她在人工智能领域被男性大幅超越并不足为奇。整个科技行业数十年来一直难以将女性员工比例提升到超过25%,那么为什么人工智能会有所不同呢?事实上,女性仅占22%的人工智能人才,而在高级管理层中这一比例更是降至14%,完全可以预见。尽管如此,这仍然应该让那些希望开发和使用无偏见、公平的人工智能的组织引起重视。但在巴黎的人工智能行动峰会上发生的事情之后,公平、无偏见的人工智能似乎变得更加遥不可及。美国和英国政府都拒绝签署峰会关于开放、包容和伦理的人工智能的承诺。相反,副总统万斯到场概述了白宫对不受限、不受规制且无意识形态的人工智能的偏好。这种做法可能会使消除人工智能系统中的偏见变得更加困难。
加上特朗普总统对所有DEI(多元化、平等和包容)事务的厌恶,以及人工智能行业中女性的缺乏,对于道德人工智能的前景来说,看起来相当黯淡。重点
但据数字转型专家UST公司的首席数据科学家、负责任人工智能负责人海瑟·道格所说,在美国和英国政府不愿受安全、透明度和伦理等琐事束缚的同时,大型企业实际上非常注重围绕这些关键原则构建人工智能系统。根据她在该领域的经验,道格坚持认为没有人愿意在人工智能方面表现出性别歧视、种族歧视或其他任何形式的偏见。对于汽车和医疗等行业来说,他们特别希望自己的技术是安全的,不带风险。
她补充说:由于人工智能劳动力主要由男性主导,道格认为存在开发者偏见问题。由于开发者按照自己的形象构建人工智能系统,因此你将会得到带有男性偏见的人工智能。但是应用人工智能治理可以帮助组织克服这一风险。她说:因为人工智能确实存在风险;它会产生幻觉,可能会产生意想不到的后果。例如,人工智能用于筛选工作申请,因为偏向男性而筛选出更多男性,这是一个意想不到的后果。这不是有意发生的,而是发生了。
虽然副总统万斯表达了对监管可能阻碍人工智能行业的担忧,但道格持相反观点。她建议:监管已经有许多受到监管的行业,这些监管不仅没有阻碍创新,反而确保产品和服务的公平性。在信贷风险中,当开发者构建机器学习模型以预测某人基于各种特征违约贷款的风险时,他们已经被禁止包括性别或种族。在她之前担任NHS临床指标项目管理者的角色中,道格负责开发了英国国家医疗服务体系的住院死亡率指标,这是一个大规模的数据驱动项目。她回忆说:团队处理了数百万行NHS数据,并应用了大约140种不同的机器学习模型来得出死亡率指标。特意未将患者贫困情况纳入模型中,然而,从粗略的角度讲,越贫困的患者越有可能在医院死亡。
道格指出:尽管公司表示有意开发公平和道德的人工智能,即使是在男性主导的团队中,这并不意味着不需要努力纠正人工智能中的性别失衡。道格指出:在AI行动峰会之前,人们对人工智能的安全性和伦理性表示担忧,最近DeepSeek的出现也引发了类似的担忧,许多国家采取措施禁止中国技术。然而,道格认为中国的AI平台展示了在有限预算下实现的可能性。她总结道:
(以上内容均由Ai生成)