人工智能通过模仿人脑来减少能源消耗
快速阅读: 据《科学日报》称,研究团队开发了一种模仿人脑的新型AI方法“超图灵AI”,可显著降低能耗。传统AI训练和记忆分离导致高能耗,而新AI整合这些过程,效率更高。这项技术有助于解决AI行业的能源危机,推动可持续发展。
随着科技公司的不断扩展,由包括德克萨斯农工大学工程师在内的研究人员开发的一种新的AI“思考”方法,模仿了人类大脑,并有可能彻底改变人工智能行业。德克萨斯农工大学工程学院电气与计算机工程助理教授易博士是开发“超图灵AI”的研究团队的一员,这种新型AI运行方式更接近人脑。这种新型AI整合了一些过程,而不是像当前系统那样将它们分离并迁移大量数据。
人工智能的能源危机
如今的AI系统,包括OpenAI和ChatGPT等大型语言模型,需要巨大的计算能力和庞大的数据中心,消耗大量的电力。“这些数据中心的耗电量达十亿瓦,而我们的大脑仅消耗20瓦,”易博士解释说,“这是十亿瓦特对比仅仅20瓦。以当前计算方法来看,这些消耗如此多能量的数据中心是不可持续的。因此,尽管AI的能力令人惊叹,但其运行所需的硬件和电力供应仍然不可或缺。”
巨大的能耗不仅增加了运营成本,而且由于大规模数据中心的碳足迹,还加剧了环境问题。随着AI的进一步融合,解决其可持续性问题变得越来越重要。
模拟大脑
易博士及其团队认为,解决这一问题的关键在于自然——特别是人类大脑的神经活动。在大脑中,学习和记忆的功能不是分开的,而是整合在一起的。学习和记忆依赖于神经元之间的连接,称为“突触”,学习通过一种称为“突触可塑性”的过程来增强或削弱突触连接,形成新的电路并改变现有的电路以存储和检索信息。
相比之下,在当前的计算系统中,训练(如何教AI)和记忆(数据存储)发生在计算机硬件中的两个不同地方。超图灵AI之所以具有革命性意义,是因为它弥合了这一效率差距,使计算机无需将其硬件的一部分中的大量数据迁移到另一部分。
“传统的AI模型高度依赖反向传播——一种用于训练期间调整神经网络的方法,”易博士说。“虽然有效,但在生物学上难以实现,且计算量巨大。”
“我们在那篇论文中所做的就是研究现有机器学习算法中存在的生物学不现实问题,”他说。“我们的团队研究了赫布学习和基于尖峰时间依赖可塑性的机制——这些过程帮助神经元以模仿真实大脑学习的方式增强连接。”
赫布学习原则通常被总结为“共同激活的细胞会形成更强的连接”。这种方法更接近大脑中的神经元如何根据活动模式增强其连接。通过整合这种基于生物学的机制,该团队旨在开发出既能降低计算需求又不影响性能的AI系统。
在一项测试中,使用这些组件的电路帮助无人机在一个复杂的环境中导航——没有事先训练——实时学习并适应。这种方法比传统AI更快、更高效、能耗更低。
为什么这对AI的未来至关重要
这项研究可能成为人工智能行业的转折点。公司正在竞相构建更大、更强大的AI模型,但其扩展能力受到硬件和能源限制的制约。在某些情况下,新的AI应用需要建造全新的数据中心,进一步加剧环境和经济成本。
易博士强调,硬件创新与AI系统的进步同样重要。“很多人说AI只是软件方面的事,但没有计算硬件,AI就无法存在,”他说。
展望未来:可持续AI发展
超图灵AI代表了迈向可持续AI发展的关键一步。通过重新构想AI架构以反映人脑的效率,该行业可以应对经济和环境挑战。
易博士和他的团队希望他们的研究能够带来新一代既聪明又高效的AI。“现代AI如ChatGPT很棒,但太昂贵了。我们将致力于打造可持续的AI,”易博士说。“超图灵AI有望重塑AI的构建与应用方式,确保其在不断进步的过程中,能够以造福人类和地球的方式进行。”
(以上内容均由Ai生成)