揭示现实:专家怀疑人工智能是科学发现中真正的“合作科学家”
快速阅读: 据《比特币世界》称,尽管谷歌推出了“AI联合科学家”项目,但科学界对其实际效用仍持怀疑态度。专家指出,AI在处理复杂科学探索和实验设计时存在局限性,如数据稀缺、情境理解不足等问题。此外,AI生成的不准确信息可能引发“垃圾科学”,损害研究诚信。因此,科学界呼吁对AI工具进行严格验证和透明开发,确保其真正辅助科学研究而非阻碍。
人工智能(AI)的热度无可争议,尤其是在一直热衷于突破性创新的加密货币和技术社区中。最近,谷歌推出了其“AI联合科学家”,承诺将彻底改变科学研究。但AI真的准备好成为科学发现的合作伙伴了吗?还是这只是又一次技术炒作超越现实的例子?专家们正在就AI在复杂科学探索世界中的当前能力提出关键问题。让我们深入探讨为什么科学界对AI作为真正的“联合科学家”的准备情况仍持怀疑态度。AI联合科学家只是炒作吗?审视AI在研究中的局限性
谷歌宣布推出旨在协助研究人员进行假设创建和研究规划的“AI联合科学家”的雄心勃勃计划受到了健康的怀疑。麻省理工学院计算机视觉研究员萨拉·比里指出,“尽管这个初步工具很有趣,但似乎不太可能被认真使用。”她的观点反映了更广泛的关注:科学界是否真的需要这样的假设生成系统?问题的关键在于这些工具是否真正满足了科学家的需求和工作流程,或者它们主要是由公关目的驱动的。
尽管像OpenAI这样的科技巨头,以及其首席执行官山姆·奥特曼关于“超级智能”AI加速科学突破的愿景,和Anthropic公司首席执行官达里奥·阿莫迪关于AI治愈癌症的大胆预测勾画出一个充满希望的未来,但根据许多研究人员的说法,目前的现实远未达到这些宏大的宣言。问题的关键是围绕AI的炒作与其在指导和增强科学过程中的实际效用之间的差距。
以谷歌自己对其AI联合科学家在急性髓系白血病药物再利用方面的潜力为例。西北医疗中心图森分院的病理学家法维亚·杜布克指出这些结果的模糊性,称“没有一个严肃的科学家会认真对待它们。”尽管承认这可能是一个起点,但缺乏详细信息引发了严重的信任问题,并阻碍了对其有用性的适当评估。
这并非孤立事件。2020年,谷歌用于乳腺肿瘤检测的AI也因缺乏可重复的方法和代码而在《自然》杂志上受到哈佛和斯坦福大学研究人员的批评。科学界的担忧源自科技公司,特别是谷歌,宣布“突破”时缺乏必要的透明度和科学验证所需的严格性。
解码复杂性:为什么科学发现需要超出当前AI研究工具提供的内容
为科学发现开发有效的AI研究工具面临着重大挑战。一个主要挑战是科学过程的复杂性,通常涉及众多且不可预见的变量。虽然AI在需要广泛探索的领域非常有用,例如筛选大量数据以缩小可能性,但在模仿人类直觉和在面对质疑时坚持解决问题方面的能力仍有待观察。罗彻斯特理工学院教授阿什克·胡达布库什指出这一点:“纵观历史,一些最重要的科学进步,如mRNA疫苗,是由人类直觉和毅力推动的。就目前而言,AI可能并不适合复制这一点。”
解码复杂性:为什么科学发现需要超出当前AI研究工具提供的内容
日本索尼计算机科学实验室的AI研究员拉娜·西纳帕延进一步细化了这一观点。她认为,像谷歌的AI联合科学家这样的工具的重点是错误的。AI能提供更多实际帮助,通过自动化一些繁琐但必不可少的任务,而不是自动化假设生成——这是许多科学家觉得充满智力挑战的任务。这些任务包括:
– 总结广泛的学术文献
– 格式化研究论文以符合特定的资助申请要求
– 管理和组织研究数据
对于许多研究人员来说,生成假设是他们工作中最吸引人的部分。正如西纳帕延恰当地所说,“为什么我要把我的乐趣外包给一台电脑,然后只剩下艰难的工作要我自己完成?”这种情绪凸显了AI开发者对科学工作流程的理解与科学家实际需求和愿望之间的潜在差异。
超越假设:AI驱动的科学研究中的隐形障碍
萨拉·比里强调,科学探究中最艰巨的阶段往往在于设计和执行研究以验证或反驳假设。这是当前AI系统所欠缺的关键阶段。考虑以下限制:
– 物理实验:AI无法亲自操作实验或使用实验室设备。大量的科学工作涉及亲自动手实验和在现实世界中收集数据。
– 数据稀缺场景:AI在数据稀缺的情况下常遇到困难。许多科学前沿涉及探索有限先验信息的未知领域。
– 情境理解:AI缺乏对研究人员特定实验室环境、研究目标、过往工作的细致理解,这些背景对于有效的科学研究至关重要。
这些限制表明,虽然AI可能在某些方面辅助科学研究,但它不能替代人类科学家带来的全面、多方面的方法。
导航AI风险景观:AI研究工具中的垃圾科学和可靠性问题
除了技术缺陷外,AI固有的风险,如其倾向于“幻觉”或生成不准确信息,也在科学界引发了进一步的担忧。胡达布库什教授警告说,AI工具可能会向科学文献中注入“垃圾科学”。这不是一个假设问题;一项近期研究表明,AI制造的低质量研究激增,污染了像谷歌学术这样的平台。其影响是严重的:
– 过度负担的同行评审:大量AI生成的次标准研究可能会压垮已经紧张的同行评审过程,特别是在计算机科学等快速发展的领域。
– 研究诚信受损:即使设计良好的研究也可能因不可靠的AI输出而受到影响,从而削弱科学发现的整体质量和可信度。
伦理和环境问题:西纳帕延还指出了与训练许多AI系统相关的伦理问题和巨大的能源消耗,增加了其在科研中广泛应用的复杂性。
目前,虽然AI在辅助某些科学任务(如文献综述)方面提供了有趣的可能性,但谨慎和批判的态度是必不可少的。科学界对AI的怀疑并不是拒绝技术进步,而是确保AI工具经过严格的验证、透明地开发,并真正增强而非阻碍可靠科学知识的追求。
(以上内容均由Ai生成)