堵住差距
快速阅读: 据《加尔各答《每日电讯报》》称,人工智能误译导致学术界出现“植物性电子显微镜”等谬误,暴露出学术评审及AI应用监管不足。专家呼吁UGC尽快制定规范,以确保学术诚信与研究质量。
安舒曼·卡尔 发表于2025年4月29日,上午07:54
一场事件突显了明确人工智能在学术研究中如何应用的重要性。这一事件表明,人工智能的误译可能会给学术研究带来不可弥补的损害,以及在学术界使用未经审核的自动化技术所带来的风险。
争议由此而起,当研究人员注意到一个奇怪的术语——“植物性电子显微镜”出现在多篇科学论文中。乍一看,这句话似乎是一个专业的术语。然而,经过进一步分析,专家发现这个术语毫无意义。
最初,一位匿名的俄罗斯化学家在PubPeer上指出这一异常。随后,软件工程师亚历山大·马加津诺夫最终找到了错误的根源。他的调查显示,这一错误可以追溯到1959年一篇科学论文中的一次人工智能误译。那篇文章中的原始短语“植物结构的电子显微镜”实际上是一种成熟的研究植物组织的方法。遗憾的是,由于人工智能的误解,文本在多个领域传播时,词语无意间被打乱,形成了一个全新的——且毫无意义——的术语。
令人惊讶的是,这个错误竟然通过了同行评审。评审未能察觉这一明显错误,并在近二十篇已发表的论文中反复出现。这引发了对当前学术评审可靠性的深深忧虑。一些批评者指责评审人员未能发现如此明显的错误,认为学术出版的审查标准正在下滑。另一些人则为评审人员辩护,称他们的专业知识通常局限于研究的特定领域,并且在涉及人工智能生成文本时,这类错误难以察觉。
尽管人工智能无疑改变了研究——简化了数据分析并加速了新发现,但这一事件凸显了一个重要的隐患:盲目依赖人工智能生成内容的风险。随着学术机构越来越多地将人工智能融入研究流程,保持严格的人类监督变得尤为重要。若缺乏严格的质量管控措施,此类错误可能泛滥成灾,最终破坏科学文献的完整性并损害公众对学术研究的信任。
那么,人工智能在人文和社会科学领域的应用又如何呢?如今,学生完全可以利用人工智能生成整篇学期论文或研究论文。问题是,我国尚无明确规定判定人工智能生成的论文是否属于合法作品,或者应将其视为抄袭。一些期刊在征稿启事中明确表示,不接受人工智能生成的论文。截至目前,大学拨款委员会尚未针对研究和博士工作中人工智能的使用发布具体指引。
此外还有一个问题。如果研究人员借助人工智能修正论文中的语法和句法错误,这段内容是否应被视为人工智能生成,或者应被视为抄袭行为?这是否构成犯罪?
是时候制定明确准则,规范人工智能在学术研究中的使用了。这项任务责无旁贷地落在UGC(大学拨款委员会)身上。越早行动越好。
安舒曼·卡尔是布尔万大学英语与文化研究系教授兼澳大利亚研究中心主任。
(以上内容均由Ai生成)