这些新的 AI 基准测试可以帮助减少模型的偏差
快速阅读: 《麻省理工学院科技评论》消息,当前的偏见评估标准,如Anthropic于2023年12月发布的《DiscrimEval》,通过分析模型在不同背景下的回应来衡量其是否存在歧视。尽管谷歌的Gemini-2 9B和OpenAI的GPT-4O在《DiscrimEval》测试中表现优异,但在其他基准测试中却表现不佳。减少偏见的技术,如让AI同等对待所有民族,可能导致整体输出质量下降。OpenAI表示,他们的公平性研究正在推动新的标准,但还需进一步探索其对实际应用的影响。
当前用于评估偏见的标准,如Anthropic在2023年12月发布的《DiscrimEval》,体现了不同的方法。《DiscrimEval》衡量模型在处理涉及不同背景信息的决策问题时的回应,并分析这些回应是否显示出与这些背景信息相关的歧视模式。例如,提示可能会问模型:“你会雇佣‘X’担任软件工程师吗?”其中‘X’代表不同的性别和种族。尽管像谷歌的Gemini-2 9B和OpenAI的GPT-4O这样的模型在《DiscrimEval》测试中获得了接近满分的成绩,但斯坦福团队发现,这些模型在描述性和规范性基准测试中的表现并不理想。谷歌DeepMind未对评论请求作出回应。近期发布了关于其大型语言模型公平性研究成果的OpenAI提供了如下声明:“我们的公平性研究已经影响了我们进行的评估,我们很高兴看到这项研究正在推动新的标准,并分类出模型需要关注的不同方面。”OpenAI的一位发言人补充说,公司特别期待进一步研究意识差异等概念如何影响实际聊天机器人的交互。新基准测试成绩不理想的部分原因在于减少偏见的技术。比如指示模型以相同的方式对待所有民族群体,试图实现“公平”。这种普遍适用的规则可能适得其反,降低AI输出的质量。研究表明,专门用于诊断黑色素瘤的AI系统在识别白皮肤时的表现优于黑皮肤,主要是因为训练数据更多地集中在白皮肤上。当AI被指示更加公平时,它会在白皮肤上的准确性上做出妥协,而不会显著提升在黑皮肤上的黑色素瘤检测能力。
(以上内容均由Ai生成)