科技巨头争先恐后地应对 AI 迫在眉睫的能源危机
快速阅读: 据《今日日本》最新报道,AI行业通过高效冷却、节能芯片和智能编程降低能耗。到2030年,数据中心用电将占全球3%。美国专家警告电力短缺风险,中国在低功耗芯片和可再生能源方面表现突出。
据国际能源署数据,随着全球对人工智能的使用激增,AI行业正致力于通过更高效的冷却系统、更节能的计算机芯片和更智能的编程来减少能源消耗。预计到2030年,数据中心的电力消耗可能达到全球总量的3%,是目前的两倍。
美国咨询公司麦肯锡的专家指出,为满足人工智能的快速增长需求,业界正竞相建设更多的数据中心,但也面临电力短缺的风险。密歇根大学计算机科学教授莫沙拉夫·乔杜里表示,解决这一问题的方法包括增加能源供应或提高能效。他的实验室开发了一种算法,能够将AI芯片的能耗降低20-30%。
过去二十年间,数据中心的能效显著提升。目前,运营数据中心所需的能量仅为服务器消耗的10%,而二十年前这一比例高达50%。许多数据中心采用人工智能驱动的传感器来控制温度,实现资源的实时优化。液冷技术作为一项颠覆性技术,正受到广泛关注。Nvidia等公司生产的现代AI芯片功耗是二十年前的100倍,液冷技术成为必然选择。亚马逊AWS已开发出自己的液冷方法,用于冷却Nvidia GPU,以适应现有数据中心的需求。
尽管新一代计算机芯片的能效更高,但总体能源消耗仍将继续增长。普渡大学的丁毅研究发现,AI芯片可以在不牺牲性能的情况下持续更长时间,但说服半导体公司减少利润以延长设备使用寿命仍面临挑战。
在美国,能源被视为与中国在人工智能领域竞争中的关键因素。今年1月,中国初创公司DeepSeek推出了一款与顶级美国系统相当的人工智能模型,但使用了功耗更低的芯片。通过更精确的编程和省略高能耗的训练步骤,DeepSeek实现了这一突破。此外,中国在可再生能源和核能等领域的优势也引起关注。
(以上内容均由Ai生成)