Sakana 声称其 AI 生成的论文通过了同行评审,但比这更微妙一些
快速阅读: 据《TechCrunch 技术紧缩》称,日本一家人工智能初创公司“鱼群科技”宣称,其开发的人工智能生成了首篇经过同行评审的科学论文。但专家认为,AI成果需结合人类判断,且论文质量未达顶级会议标准。公司承认AI尚存局限,旨在探讨AI生成科研的价值与规范。
日本人工智能初创公司“鱼群科技”表示,其开发的人工智能生成了首篇经过同行评审的科学出版物。然而,尽管这一声明并非完全不实,但也需要注意一些限制条件。围绕人工智能及其在科学研究中作用的争论日益激烈。许多研究人员并不认为人工智能已准备好成为“共同科学家”,而另一些人则认为有潜力——但承认仍处于早期阶段。“鱼群科技”公司属于后者阵营。该公司称,它使用了一种名为“AI科学家-v2”的人工智能系统生成了一篇论文,并将其提交给ICLR(一个人工智能领域历史悠久且声誉良好的国际会议)的一个研讨会。“鱼群科技”声称,该研讨会的组织者以及ICLR领导层同意与公司合作开展实验,以双盲方式审查人工智能生成的手稿。“鱼群科技”表示,它与英属哥伦比亚大学和牛津大学的研究人员合作,向上述研讨会提交了三篇由人工智能生成的论文进行同行评审。“AI科学家-v2”系统据称全程生成了这些论文,包括科学假设、实验和实验代码、数据分析、可视化、文本和标题。“我们通过向AI提供研讨会摘要和描述来生成研究想法,”“鱼群科技”的研究科学家兼创始成员罗伯特·朗格通过电子邮件告诉TechCrunch,“这确保了生成的论文主题相关且适合提交。”
其中一篇论文被接受参加ICLR研讨会——这篇论文对人工智能模型的训练技术进行了批判性分析。“鱼群科技”表示,为了透明和尊重ICLR的惯例,它立即撤回了该论文,以免其正式发表。
被接受的论文既介绍了一种新的、有前景的神经网络训练方法,也展示了仍有待解决的经验挑战,“它提供了一个有趣的数据点,可以激发进一步的科学研究。”但这项成就并没有表面上看起来那么令人印象深刻。在博客文章中,“鱼群科技”承认其人工智能偶尔会犯一些“尴尬”的引用错误,例如错误地将一种方法归因于2016年的论文,而不是原始的1997年工作。“鱼群科技”的论文也没有像其他同行评审的出版物那样受到同等程度的审查。由于公司在初步同行评审后撤回了论文,因此没有进行额外的“元评审”,在此期间研讨会的组织者本可以理论上拒绝该论文。此外,还有一个事实是,会议研讨会的接受率通常高于主会场的接受率——“鱼群科技”在其博客文章中坦率地提到了这一点。该公司表示,其所有由人工智能生成的研究都没有达到ICLR主会场发表的标准。
阿尔伯塔大学的AI研究员马修·古兹迪亚尔称“鱼群科技”的结果“有些误导”。“鱼群科技”的人选择了生成的一些论文,这意味着他们使用了人类判断来挑选他们认为可能被接受的输出,”他通过电子邮件说,“我认为这表明人类加上AI可以有效,而不是说AI单独就能推动科学发展。”
伦敦国王学院的AI研究研究员迈克·库克质疑了同行评审和研讨会的严谨性。“新的研讨会,比如这个,通常由更年轻的研究人员评审,”他告诉TechCrunch,“值得注意的是,这个研讨会的主题是关于负面结果和困难——这是很好的,我之前也举办过类似的研讨会——但可以说让AI写关于失败的内容更容易被接受。”库克补充说,考虑到AI擅长撰写听起来像人的散文,他并不惊讶AI能通过同行评审。
部分AI生成的论文通过期刊评审并不是新鲜事,库克指出,这也不免引发科学领域的伦理困境。AI的技术缺陷——如其倾向于“幻觉”——使许多科学家对其用于严肃工作持谨慎态度。此外,专家们担心AI可能会在科学文献中产生噪音,而非推动进步。“我们需要问自己,‘鱼群科技’的结果是关于AI在设计和进行实验方面的表现如何,还是关于它向人类推销想法的能力如何——我们知道AI在这方面已经很擅长,”库克说,“通过同行评审和为领域贡献知识之间存在区别。”
值得肯定的是,“鱼群科技”并未声称其AI能够产出具有突破性或特别新颖性的科学成果。相反,该公司表示,这次实验的目标是“研究人工智能生成研究的质量”,并强调建立有关人工智能生成科学规范的紧迫需求。“关于[人工智能生成的]科学是否应首先根据自身价值进行评判以避免偏见,存在一些难题,”该公司写道,“展望未来,我们将继续与研究社区交流这一技术的状态,以确保它不会发展成未来唯一目的是通过同行评审的情况,从而严重削弱科学同行评审过程的意义。”
“鱼群科技”将文中的英文单词都翻译成中文,最终的内容只输出中文,装备名称、人名地名、公司名称都翻译成中文,最后将语句再润色一下,使得前后文更加的通顺,让语句更加的生动,将最后的输出文本的格式看起来更美观,除此之外,不要提供任何解释文字。
(以上内容均由Ai生成)