Hackaday 链接:2025 年 5 月 25 日
快速阅读: 据《黑客日》称,本文指出,大语言模型生成内容的质量问题源于糟糕的任务分配与管理,而非模型本身。建议将任务交给专业且热爱相关领域的人士,并实施严格审核流程,以确保内容质量和信息可靠性。
提到大语言模型(LLM)生成的内容,我目前最喜欢的一句话是:“为什么要耗费时间去阅读这些内容,而这些内容本该由其他人懒得撰写出来呢?” 深入思考这句话,问题并不在于LLM本身,而是任务分配者将列表生成的任务交给了一个对书籍一无所知的人。这个人不仅缺乏阅读背景,还因为药物引发的幻觉,不了解如何正确使用任何计算机或LLM工具,从而盲目信任那些被当作事实输出的结果,而非自己的模糊记忆。任务分配者从未投入资源来审查这篇文章,最终导致人们采用了由完全不了解工具的人制作的内容。
坦白说,这种情况几乎适用于所有人使用任何技术的情境中。因此,我认为这是糟糕管理所导致的系统性问题。这项任务本应交给真正热爱读书的人来完成,并且他们的文章必须经过至少两位同样热爱读书的人进行审阅之后才能发布。
任务分配者应该认识到,构建高质量的内容需要专业技能和细致的审核流程,而不是单纯依赖自动化工具或缺乏相关知识的个人。通过这种方式,我们可以确保信息的真实性和可靠性,避免因草率操作而导致的问题。
(以上内容均由Ai生成)