AI 的研究失误:一个错误如何引发一连串有缺陷的科学论文。人工智能在学术界可以信任吗?
快速阅读: 据《经济时报》最新报道,在人工智能影响学术研究的时代,一个AI生成的误读导致近二十篇有缺陷的研究论文发表,引发了对学术自动化失控的担忧。同行评审未能发现这一错误,暴露了AI可能侵蚀科学研究能力和学术出版可信度的问题。这一事件引发了关于AI责任与人类过度依赖的激烈讨论,强调了在利用AI的同时保持人类批判性思维的重要性。
在人工智能几乎影响人类生活的方方面面的时代,它对学术研究的日益增长的影响引发了严重的关切。Instagram账号@broken科学倡议发布的一段病毒式视频曝光了一个人工智能生成的错误导致一系列有缺陷的研究论文——近二十篇。一个简单的AI误读演变成了一场关于学术自动化缺乏控制的惊人案例。这个错误深埋于科学文献中,未被同行评审发现,引发了一个令人不安的问题:AI是否正在侵蚀科学家的研究能力以及学术出版的可信度?
学术信息传递出现了错误争议始于科学家们注意到多篇已发表论文中出现了一个奇怪的短语:“植物电子显微镜”。表面上看,这似乎是一个高级技术术语,但专家很快就意识到这毫无意义。这个奇怪的短语首先由一位使用化名Paralabrax Clathratus的俄罗斯化学家在在线研究论坛PubPier上标记出来。然而,软件工程师Alexander Magazinov追踪到错误的根源是来自1959年一篇科学论文中的人工智能生成的误译。原文是“植物结构的电子显微镜”——一种用于研究叶子和根等植物组织的成熟方法。但由于AI无法正确解读跨多栏的文字,这些词被混在一起,形成了一个全新的、无意义的术语。
这个错误在同行评审过程中被忽视,并在近二十篇已发表的研究中被不知情地重复。你可能也会喜欢:反衰老亿万富翁布莱恩·约翰逊推出的新型“AI宗教”。它将“拯救人类种族”。
有缺陷的研究达到了惊人的规模,这一揭露引发了愤怒,许多人质疑一个基本的AI错误如何能在学术界这个所谓的严谨世界里如此广泛传播。更令人担忧的是,有人暗示这个错误可能是由论文代写工厂——那些为了盈利而没有经过适当审查就生产研究论文的欺诈组织——放大了。视频中的叙述者警告说:“这一事件凸显了一个日益严重的问题——学术研究中未经检查的AI使用。”
“一个简单的AI误读演变成了近二十篇可疑的研究,证明同行评审过程失灵了,复制危机依然存在。”“复制危机”——用来描述越来越多的科学研究无法可靠再现的现象——一直是医学和心理学等领域的一个持续问题。AI非但没有解决这个问题,反而可能通过引入细微却广泛存在的错误,逃避人类检测,使问题变得更糟。
学者反应:AI该负责,还是人类过度依赖?这段病毒视频在研究人员和网民中引发了激烈的讨论。一些人捍卫同行评审,认为他们的专业知识通常仅限于研究的特定领域。“同行评审并不是无所不知的,他们往往不是论文所有领域的专家,”一位评论者指出。“所以如果他们看到某些可疑的东西,可能会认为这是他们不太熟悉的某个领域的术语。此外,评审人员是无偿工作的,而且他们自己的论文也在接受审查。”
另一些人则对AI在学术研究中的作用持强硬态度。一位用户直言不讳地说:“应该禁止AI,它不是一个智能系统,只是一个语言模型。”当然,在混乱中也有幽默的空间。“哈哈,这是迄今为止最典型的AI视频,”另一位评论者开玩笑说。
研究的未来:能否信任AI?虽然人工智能通过自动化数据分析和加速发现革命了研究,但这一事件突显了一个危险的副作用——盲目信任AI生成的内容。随着学术机构将AI整合到工作流程中,严格的人员监督从未像现在这样重要。如果同行评审——旨在维护科学文献完整性的系统——都无法捕捉到AI生成的错误,那么还有哪些不准确之处会溜过?AI是在推动知识进步,还是只是让人变得懒惰的研究人员?
有一件事很清楚:科学界必须谨慎行事。随着AI继续重塑学术界,研究人员必须在利用其力量和保持人类批判性思维之间找到平衡,后者对于真正的发现仍然至关重要。
(以上内容均由Ai生成)