研究人员使用更智能、更精简的模型将 AI 能耗降低 90%
快速阅读: 据《AZoAI》称,德国科学家通过知识蒸馏和神经架构搜索技术,将人工智能能耗降低90%,助力中小企业使用强大AI模型,同时提升钢铁废料分类效率,为建设绿色数据中心提供解决方案。
**一场巨大的人工智能革命正在进行——德国科学家找到解决方案,将人工智能能耗减少90%**
德国的科学家们正在掀起一场人工智能领域的绿色革命。萨尔兰大学及德国人工智能研究中心(DFKI)的沃尔夫冈·马斯教授及其团队成功开发出一种方法,能够将人工智能的能耗减少高达90%。这项突破不仅提升了人工智能的性能,还为构建更绿色、更高效的科技未来奠定了基础,让小型企业也能轻松使用这些先进技术。
图片来源:Caureem / Shutterstock
驱动人工智能的背后隐藏着巨额的能源成本。为了解决这一问题,沃尔夫冈·马斯教授的研究团队正在重新设计数据中心、大型语言模型以及图像分析模型。他们的努力正在为中小企业开放更强大的人工智能模型。3月31日至4月4日,研究人员将在汉诺威工业博览会上于联邦经济事务与气候行动部展台展示他们的成果(展厅2,展位A18)。
数据中心的能源消耗巨大。据德国数字行业领先协会Bitkom统计,过去十年间,支撑数据中心运行所需的电力需求增长了一倍以上。随着数字化转型的推进,这一趋势仍在加剧。无论是存储、处理、传输还是检索数据,每一步都离不开能源的支持。尤其是人工智能,已成为能源消耗的主要领域之一。在全球范围内,数万亿瓦时的电能被用于训练和运行当今庞杂的人工智能模型。使用这些模型生成图片或文本所需的能源同样不容忽视。因此,数据中心必须不断扩大规模,这进一步增加了处理器驱动和冷却所需的电力,从而导致碳足迹的显著增加。这一切无疑阻碍了欧洲实现到2050年达成净零温室气体排放目标的进程。显然,需要作出改变。
“人工智能完全可以变得更加节能。通过合理的方法,未来的数据中心可以更具有能源智慧。”萨尔兰大学和德国人工智能研究中心(DFKI)的研究员沃尔夫冈·马斯教授表示,“我的团队致力于开发更紧凑、更节能的人工智能模型,以控制人工智能对能源的需求并节约资源。同时,我们也在探索如何让数据中心更加能源智慧。”
“通过让模型变得更小、更高效,我们正在推动可持续发展。”沃尔夫冈·马斯教授团队的高级研究员萨宾·詹岑博士补充道,“我们的工作也为小型和中型企业开放了强大的人工智能模型,因为这些更小巧、更精简的人工智能模型不需要复杂的大型技术设施。这意味着每个人——不仅仅是大公司——都能利用这项新技术。”
当前,像ChatGPT这样的主流人工智能聊天机器人,以及视觉人工智能模型,都依赖数万亿参数和庞大的数据集来完成任务,它们的能源消耗自然也非常巨大。萨尔布吕肯的研究人员正在研发方法,以减少能源消耗的同时,确保这些更紧凑、节能的人工智能模型在输出质量上不受影响。
“我们工作的核心要素是一种名为‘知识蒸馏’的技术。这是一种压缩技术,使我们能够制作更小、更节能的模型,但性能与较大模型保持一致。”萨宾·詹岑解释说。
研究团队采用的方法可以这样描述:当你试图找到某个问题的答案时,你并不会阅读整个图书馆;相反,你只会关注那些与你的问题相关的书籍。萨尔布吕肯的研究人员从较大的“教师”模型中提取出更小、更专注、更节能的“学生”模型。通过浓缩特定领域的任务所需知识并简化为关键内容,他们能够将数据模型的规模减少90%。与任务无关的模型参数保持不变。
“在推理速度方面,即模型处理输入数据并产生结果的速度,这些学生模型的表现与较大的教师模型相当,但仅需消耗10%的能源。”詹岑补充道。
通过使用另一种名为“神经架构搜索”(NAS)的自动化效率技术,该团队还在视觉人工智能模型上取得了显著成果,这种模型用于处理数字图像数据。“我们的最新结果显示,我们可以使用NAS方法将模型大小减少大约90%。”萨宾·詹岑说道。
在这项工作中,研究人员专注于基于人工神经网络的机器学习——这是一种非常耗能的人工智能方法,能够分析大量数据。人工神经网络旨在模仿人类大脑。我们的大脑包含数十亿个被称为神经元的细胞,这些神经元通过数万亿个突触相互连接。突触本质上是两个神经元之间的接口,通过它这两个神经元可以通信。当我们学习新事物时,神经元通过突触互相发送电信号;随着我们继续学习,相同的神经元持续一起放电,它们之间的连接变得更强,而与不活跃的神经元之间的连接则变弱。人工神经网络中的学习过程类似,并且通过向这些网络输入大量数据,它们可以被训练以识别自然语言或图像中的模式。
然而,尽管大脑是高效学习的专家,训练一个广泛的神经网络需要大量的计算能力和大量的能源。训练一个人工神经网络以产生有意义的结果也涉及大量的人类投入。通常,这些人工网络由专家手动设计和配置,许多参数经过调整和优化,直到它们达到所需水平。这就是萨尔布吕肯的研究人员引入“神经架构搜索”(NAS)的地方。
“我们不是手动设计神经网络,而是使用NAS自动优化设计过程,”萨宾·詹岑解释说,“NAS让我们能够探索不同的网络架构并优化它们,以创建一个高性能、高效率且成本更低的模型。”
沃尔夫冈·马斯教授的团队正在与钢铁公司Stahl Holding Saar合作,以训练这些更紧凑的人工智能模型。目标是教会人工神经网络高效分类钢铁废料。为了从废钢中生产新的钢材,生产商需要高质量的废钢。只有某些类型的废钢可以回收再制造高品质的钢材。然而,送到冶炼厂的钢铁废料通常是混合物,必须进行分类。废料分拣可以自动化,但现有模型太大,实用性较差。
“我们已经压缩了视觉人工智能分拣模型,使其更紧凑、更节能。事实上,较小的模型在某些指标上的表现甚至更好,从而提高了钢铁回收过程的效率。”詹岑说道。
以往,运行一个庞大复杂的人工智能模型需要耗费大量能源,而现在,一个小巧、定制化、节能的模型就能完成同样的任务。研究人员首先用完整的数据集训练他们的模型,然后使用知识蒸馏和专门编译的神经网络缩小人工智能模型,以便模型仅包含完成任务所需的参数。在这个特定情况下,目标是创建一个人工智能,拥有分析摄像机图像并分类运送到现场的废钢所需的所有知识。
萨尔布吕肯的研究团队还与合作伙伴共同制定了可持续数据中心和节能人工智能的概念,并编制了相关建议。迄今为止,估算创建和运行一个人工智能模型所需的能源量一直很困难。这使得企业更难提前规划。为此,研究团队正在研发一款工具,可以可靠地预测不同人工智能模型所消耗的能源和相关成本。
“数据中心和人工智能使用者可借助这些信息更有效地计划,识别低效流程,并在必要时采取纠正措施——例如,在电价较低时安排繁重的计算任务。”正在研究这些节能人工智能模型的博士生汉娜·斯坦解释道。
沃尔夫冈·马斯教授及其团队的研究已被纳入联邦经济事务与气候行动部在今年汉诺威工业博览会上的展台。团队将展示由联邦资助的ESCADE项目的最新成果,该项目依托德国人工智能研究中心DFKI。
**背景:**
ESCADE(“可持续数据中心的节能大规模人工智能”)是一项为期三年、预算约500万欧元的项目,由德国联邦经济事务与气候行动部(BMWK)资助。该项目将持续到2026年4月底。
ESCADE财团由沃尔夫冈·马斯教授领导的研究团队(萨尔兰大学和DFKI)、NT Neue Technologie AG、Stahl-Holding-Saar GmbH & Co. KGaA、SEITEC GmbH、德累斯顿工业大学、比勒菲尔德大学以及奥地利应用研究机构Salzburg Research组成。
**网站:** https://escade-project.de
**来源:** 萨尔兰大学
(以上内容均由Ai生成)