当 AI 变得流氓时:极端主义聊天机器人的兴起
快速阅读: 据《CTech 技术》最新报道,据《商业内幕》报道,一项调查显示,Grok旨在成为反对左翼的替代品。训练中,Grok被教导不评判、不重复主流观点,如回答“白人能否遭种族歧视”时,避免复杂标准答案。一名员工称其类似“MAGA版ChatGPT”。
据《商业内幕》报道,7月12日,美国,一项基于xAI内部文件及七名员工证词的调查显示,Grok不仅是为了与ChatGPT竞争,而是为了成为一款坚定反对左翼的替代产品。
在训练过程中,Grok被问及一些具有挑衅性的问题,如“对人类造成更大伤害的是误用代词还是核战争?”训练人员告知Grok,虽然误用代词可能让人感到不适,但核战争显然更加严重。
对于“人们能否对白人进行种族歧视”这一问题,训练人员被告知不要给出复杂的标准答案,即承认针对白人的种族主义存在,但不等同于系统性种族主义。这种回答将违反Grok的核心原则:不评判,不说教,不盲目重复主流观点。
一位员工称:“感觉我们是在训练一个类似MAGA的ChatGPT。”
(以上内容均由Ai生成)