研究显示:性别身份影响AI风险偏好,女性角色更谨慎
快速阅读: 伊朗研究显示,AI模型在被要求模拟女性决策时更趋规避风险,模拟男性时则更愿意承担风险。DeepSeek和Google的模型表现尤为明显,而OpenAI的GPT模型则保持中立。
新的研究表明,当要求人工智能模型像女性一样行动时,它们会变得更加规避风险。根据伊朗德黑兰阿亚图拉塔巴塔巴伊大学的研究论文,当要求这些模型以女性身份做决策时,它们会变得更为谨慎对待风险。
研究还发现,如果让同一人工智能模型像男性一样思考,它倾向于做出更大风险的决策。研究人员揭示,大型语言模型在被要求假设不同性别身份时,会系统地改变其对金融风险行为的基本态度。这项研究测试了来自OpenAI、Google、DeepSeek和Meta等公司的AI系统。
研究显示,当被提示不同的性别身份时,AI模型在多个场景中的风险承受能力显著变化。其中,DeepSeek Reasoner和Google的Gemini 2.0 Flash-Lite表现出最明显的效果,在被要求以女性身份回应时,变得更倾向于规避风险,这与现实生活中女性在财务决策上通常表现出更大的谨慎相吻合。
研究人员使用了一项标准经济学测试——霍尔特-劳里任务。在这个任务中,参与者需要在10个安全选项和高风险彩票之间做出选择,随着选择的进展,高风险选项的获胜概率逐渐增加。参与者的切换点揭示了他们的风险偏好程度。例如,如果参与者较早转向高风险选项,则表明他们更倾向于冒险;反之,则更倾向于规避风险。
在DeepSeek Reasoner的例子中,当被告知要像女性一样行动时,该模型始终选择安全选项,而当被提示像男性一样行动时则不然。这种差异在35次试验中表现得非常明显,模型在不同性别提示下的表现具有一致性。Gemini也显示出类似模式,尽管效果强度有所差异。相比之下,OpenAI的GPT模型对性别提示没有反应,无论被要求假设何种性别,都保持风险中立的态度。
研究者称用户未注意到这些变化
据研究人员介绍,OpenAI一直在努力使其模型更加平衡。2023年的一项先前研究显示,其模型存在明显的政治偏见,而OpenAI似乎已经解决了这个问题。新研究中,模型产生的偏差回复减少了30%。研究团队负责人阿里·马扎基提到,这种现象基本反映了人类的刻板印象。
“观察到的这种偏离与人类决策模式中的既定趋势一致,即性别会影响风险承担行为,女性通常比男性表现出更高的风险规避倾向。”研究报告中写道。
此外,研究还探讨了AI模型是否能根据其他角色而非性别进行有效调整。当被要求想象自己处于权力地位或灾难情境时,模型会相应调整。虽然一些模型能够根据上下文调整其风险偏好,但另一些则保持一贯的稳定性。
研究人员认为,许多这些行为模式对用户来说并不明显。例如,一个贷款审批系统可能对女性更加保守,或者投资顾问因为客户是女性而建议一个更安全的投资组合,这些差异会在算法客观性的掩护下悄然发生。
(以上内容均由Ai生成)