人工智能可以成为科学家的强大工具,但它也会助长研究不端行为
快速阅读: 据《康奈尔科学联盟》称,谷歌推出专为科学家设计的新AI系统,虽助力科研突破,但也引发学术不端增加的担忧。AI生成虚假研究、伪造数据等问题日益严重,科学界需制定相关政策最大化其益处并最小化风险。
今年二月,谷歌宣布推出一款专为科学家设计的新AI系统。谷歌表示,该系统是一个协作工具,旨在帮助科学家“提出新的假设并制定研究计划”。目前还不清楚这项工具对科学家有多大的实际价值。但可以肯定的是,人工智能(AI)正广泛地改变着科学领域。
例如,去年计算机科学家因开发出一种预测所有已知人类蛋白质形状的AI模型而获得了诺贝尔化学奖。诺贝尔委员会主席海内尔·林克称,这一AI系统实现了“50年的梦想”,解决了自1970年代以来一直困扰科学家的难题。
然而,尽管AI正在助力科学家取得几十年来或根本无法实现的技术突破,但在科学中使用AI也存在阴暗的一面:学术不端行为正在增加。
例如,去年计算机科学家因开发出一种预测所有已知人类蛋白质形状的AI模型而获得了诺贝尔化学奖。诺贝尔委员会主席海内尔·林克称,这一AI系统实现了“50年的梦想”,解决了自1970年代以来一直困扰科学家的难题。
AI使得伪造研究变得非常容易。如果发现数据或研究结果无效,学术论文可能会被撤回。这可能是因为数据造假、剽窃或人为错误。撤稿论文的数量呈指数级增长,2023年已超过10,000篇。这些被撤回的论文被引用了超过35,000次。
一项研究显示,8%的荷兰科学家承认犯有严重的科研欺诈行为,这一比例是之前报告的两倍。过去二十年里,生物医学论文的撤回数量增加了四倍,其中大多数是由于不当行为造成的。
AI可能会让这个问题变得更加严重。例如,像ChatGPT这样的生成式AI工具的可用性和能力不断提高,使得伪造研究变得更容易。这一点由两位研究人员通过使用AI生成288篇完整的虚假学术金融论文来预测股票回报的例子证明了这一点。虽然这只是一个展示可能性的实验,但不难想象这项技术可能被用来生成虚构的临床试验数据、修改基因编辑实验数据以掩盖不良结果,或其他恶意用途。
虚假引用和伪造数据
已有多起报道指出,AI生成的论文通过同行评审并发表后,因未披露使用AI而被撤回,有的甚至包含严重的错误,比如虚假引用和蓄意伪造的数据。
一些研究人员还利用AI审查同行的研究成果。科学论文的同行评审是科学诚信的重要组成部分之一。但这也极其耗时,一些科学家每年花费数百小时无偿进行这项工作。
一项由斯坦福大学领导的研究发现,顶级AI学术会议的同行评审中有高达17%至少部分由AI完成。
在极端情况下,AI可能会撰写研究论文,然后由另一台AI进行评审。这种风险加剧了科学出版物数量呈指数级增长的问题,而每篇论文中真正新颖有趣的内容平均数量却在减少。
AI还可能造成无意的科学结果伪造。生成式AI系统的一个广为人知的问题是它们有时会编造答案而非坦承不知,这被称为“幻觉现象”。
我们不清楚AI幻觉最终会在多少科学论文中成为错误。然而,最近的一项关于计算机编程的研究发现,52%的AI生成的答案包含错误,且人类监督未能纠正其中的39%。
AI还可能造成无意的科学结果伪造。生成式AI系统的一个广为人知的问题是它们有时会编造答案而非坦承不知,这被称为“幻觉现象”。
最大化利益,最小化风险
尽管出现了这些令人担忧的情况,但我们不应因此恐慌,阻止甚至责备科学家使用AI。
AI对科学有着显著的优势。研究人员多年来一直使用专门的AI模型解决科学问题。像ChatGPT这样的生成式AI模型提供了通用AI科学助手的希望,能够执行各种任务并与科学家合作。
这些AI模型可作为强大的实验室助手。例如,CSIRO的研究人员正在研发可以与科学家对话并像人类助手一样指导工作的AI实验室机器人,以自动化重复性任务。
AI对科学有着显著的优势。研究人员多年来一直使用专门的AI模型解决科学问题。像ChatGPT这样的生成式AI模型提供了通用AI科学助手的希望,能够执行各种任务并与科学家合作。
任何颠覆性新技术都有利有弊。科学界面临的挑战是制定适当的政策和机制,确保我们最大化其益处并最小化风险。
AI改变科学世界并帮助科学让世界变得更美好的潜力已经得到证明。我们现在面临选择。
我们是否通过倡导并制定规范科学中AI使用道德和负责任行为准则来拥抱AI?还是我们袖手旁观,让少数不良行为者损害我们的领域并让我们错失机会?
AI改变科学世界并帮助科学让世界变得更美好的潜力已经得到证明。我们现在面临选择。
乔恩·惠特尔是数据61的主任,CSIRO的斯蒂芬·哈雷尔是科学AI的主任。
本文由《对话》杂志重新发布。
(以上内容均由Ai生成)