OpenAI 的 Sora 受到性别歧视、种族主义和能力主义偏见的困扰
快速阅读: 据《有线》最新报道,尽管AI工具在图像质量上有进步,但如OpenAI的Sora仍延续性别、种族和能力刻板印象。OpenAI正努力减少偏见,但拒绝详述方法。偏见问题是生成式AI的长期挑战,可能导致现实危害。
尽管近期在图像质量上取得显著进展,但像OpenAI的Sora这样的AI工具生成的视频中,仍能明显发现偏见问题。《连线》杂志的一项调查,通过对数百个AI生成视频的审查发现,Sora的模型在其结果中延续了性别、种族和能力上的刻板印象。在Sora的世界里,每个人物都显得格外出色。飞行员、首席执行官以及大学教授的角色均为男性,而空乘人员、接待员及儿童保育工作者则全部为女性。此外,残疾人通常被表现为轮椅使用者,跨种族关系难以生成,肥胖者不参与跑步等场景。
OpenAI发言人李·阿尼丝(Leah Anise)通过电子邮件回应称:“OpenAI设有专门的安全团队,致力于研究并减少我们模型中的偏见及其他潜在风险。” 她指出,偏见问题是整个行业面临的挑战,而OpenAI的目标是进一步降低AI视频工具生成有害内容的可能性。阿尼丝表示,该公司正探索如何调整训练数据和优化用户提示,以生成更少偏见的视频。不过,OpenAI拒绝提供更多细节,并强调模型的视频生成结果不会因了解用户身份信息而产生差异。OpenAI发布的“系统卡”中提到,构建Sora的过程中虽承认偏见表现是持续存在的问题,但研究人员相信,“过度矫正同样可能带来危害”。
自第一批文本生成器问世以来,偏见便一直是困扰生成式AI系统的一大难题,随后扩展至图像生成器领域。这一问题的核心在于这些系统会大量吞噬训练数据——其中许多数据可能反映了现有的社会偏见,并从中寻找规律。开发人员在内容审核过程中的其他决策也可能进一步巩固这些偏见。过往针对图像生成器的研究表明,这些系统不仅反映人类的偏见,还会放大这些偏见。为了深入了解Sora如何强化刻板印象,《连线》记者生成并分析了250个与人物、关系和职位相关的视频。这些问题很可能不仅仅局限于某一特定的AI模型。过去对生成式AI图像的调查已经证明,大多数工具都存在类似的偏见问题。
此前,OpenAI曾为其AI图像工具引入新技术,以生成更加多元化的画面内容。目前,AI视频最可能的商业用途是在广告和营销领域。如果AI视频默认带有偏见形象,可能会加剧对边缘化群体的刻板印象或导致其被忽视——这已是已知现象。AI视频也可能被用于训练与安全或军事相关的系统,在这些领域,偏见可能带来更大的危险性。“它绝对会对现实世界造成伤害,”剑桥大学Leverhulme未来智能中心的研究助理艾米·加埃塔(Amy Gaeta)如是说。
(以上内容均由Ai生成)