多位AI专家质疑聊天机器人可靠性,揭示背后原因
快速阅读: 《卫报》报道,AI领域专家对聊天机器人持怀疑态度,主要因公司急于求成,评估员缺乏培训与资源,以及模型存在产生错误推理的幻觉倾向。专家警告,AI训练数据质量差,建议谨慎使用。
为何专家对AI聊天机器人持怀疑态度?
如果有一群人比大多数人更了解AI聊天机器人,那一定是构建这些系统的专家。他们是推动每个新模型市场边界的人,也是评估输出质量以获得更好结果的人。《卫报》采访了多位AI领域的专家,他们表达了对这项技术的怀疑。其中一个反复出现的主题是:公司过于追求快速推出AI评估人员,却没有为这些员工提供足够的培训和资源来完成最佳工作。
“我们被期望帮助改进模型,但通常收到的是模糊或不完整的指示,最少的培训和不切实际的时间限制来完成任务。”布鲁克·汉森告诉《卫报》。一名员工还透露,一些负责评估敏感医疗内容的同事只具备该主题的基本知识。批评不仅限于评估方面。一位谷歌AI评估员向《卫报》透露,他对整个技术产生了怀疑,并建议朋友和家人不要使用聊天机器人,因为他看到了用于训练模型的数据有多糟糕。
另一个导致部分AI专家不信任聊天机器人的原因是其幻觉倾向,即模型产生的完全离谱或错误的推理。在一段由OpenAI发布的YouTube视频中,首席执行官萨姆·阿尔特曼表示,人们对ChatGPT的高度信任“有趣”,但可能被高估了,因为AI会产生幻觉,不应给予过多信任。安德烈·卡帕西(前OpenAI研究科学家及创始成员,前特斯拉AI部门总监)也在X上发表的一篇文章中讨论了AI的一些局限性,警告不要在没有人类监督的情况下将AI用于生产环境。
(以上内容均由Ai生成)