索尼发布新AI伦理基准,挑战行业偏见问题
快速阅读: 索尼AI发布“公平人本图像基准”(FHIBE),全球首个多样化、基于同意的人像数据集,用于评估AI模型偏见。FHIBE揭示了发型变化等被忽视的偏见因素,证明合乎伦理的数据收集可行性。
索尼AI发布了一项旨在测试AI模型公平性和偏见的数据集,名为“公平人本图像基准”(FHIBE,发音类似于“菲比”)。公司称其为“首个公开可用、全球多样化、基于同意的人像数据集,用于评估各种计算机视觉任务中的偏见”。换句话说,它测试了当前AI模型在对待人类时的公正程度。结果显示,索尼未发现任何一个公司的数据集能够完全满足其设定的标准。
索尼表示,FHIBE能够应对AI行业的伦理和偏见挑战。该数据集包含了来自超过80个国家近2000名志愿者的图像,所有肖像均是在获得同意的情况下共享的——这与通常从网络上大量抓取数据的做法不同。FHIBE的参与者可以随时删除自己的图像。这些照片附有标注,记录了人口统计学和身体特征、环境因素甚至相机设置等信息。
FHIBE“确认了之前文献中记载的偏见”,但索尼指出,FHIBE还能提供导致这些偏见的具体诊断。例如,某些模型对使用“她/她的”代词的人准确率较低,而FHIBE揭示了发型变化较大是一个此前被忽视的因素。
此外,FHIBE还发现,当被问及某个对象的职业时,当前的AI模型会强化刻板印象。这些模型尤其针对特定代词和祖先群体表现出偏见,将一些人描述为性工作者、毒贩或小偷。而在询问某人犯下的罪行时,模型有时会对非洲或亚洲血统、肤色较深或自我认同为“他/他的”个体产生更高频率的负面回应。
索尼AI认为,FHIBE证明了合乎伦理、多样且公平的数据收集是可行的。目前,该工具已向公众开放,并将持续更新。相关研究论文已于周三发表在《自然》杂志上。
(以上内容均由Ai生成)