索尼发布新AI伦理基准,挑战行业偏见问题
快速阅读: 索尼AI发布FHIBE数据集,旨在测试AI模型公平性与偏见,涵盖80国近2000名志愿者图像,确保伦理多样性,诊断出发型变化等新偏见因素,现已公开并持续更新。
索尼AI发布了一个名为公平人本图像基准(FHIBE,发音类似“菲比”)的数据集,用于测试AI模型的公平性和偏见。公司将其描述为“首个公开可用的、全球多样化的、基于同意的人像数据集,用于评估广泛计算机视觉任务中的偏见”。换句话说,该数据集旨在衡量当前AI模型对待人类的公正程度。据索尼透露,在所有公司的数据集中,没有一个能完全达到其设定的标准。
索尼表示,FHIBE能够应对AI行业的伦理和偏见挑战。该数据集包含来自超过80个国家近2000名志愿者的图像,所有肖像均在获得同意的情况下共享——这一点与通常从网络上大量抓取数据的做法不同。FHIBE的参与者可以随时删除自己的图像。这些照片附有标注,记录了人口统计学和身体特征、环境因素乃至相机设置等信息。
该工具“证实了之前文献中记载的偏见”,但索尼称,FHIBE还能提供导致这些偏见的因素的具体诊断。例如,一些模型对使用“她/她的”代词的人识别准确率较低,而FHIBE指出,发型变化较大是此前未被重视的一个因素。
此外,FHIBE发现,当被问及某人的职业时,今天的AI模型会强化刻板印象。特别是对于特定代词和祖先群体,模型倾向于将对象描述为性工作者、毒贩或小偷。而在被询问某人犯下的罪行时,模型有时会对非洲或亚洲血统、肤色较深或自我认同为“他/他的”个体产生更高频率的负面回应。
索尼AI认为,FHIBE证明了合乎伦理、多样且公平的数据收集是可行的。目前,该工具已向公众开放,并将随着时间推移进行更新。相关研究论文已于周三发表在《自然》杂志上。
(以上内容均由Ai生成)