AI 如何改变世界构建计算机的方式
快速阅读: 据《经济时报》最新报道,人工智能的快速发展推动了对配备GPU的数据中心的需求,这些设施需要大量电力和水资源。科技巨头计划投入巨资建设新数据中心,但电力供应和冷却问题成为挑战,尤其是在水资源紧张的地区。
人工智能的崛起正在推动对专门配备GPU的数据中心的巨大需求,这些数据中心需要大量的电力和水资源。像开放人工智能(OpenAI)、谷歌和脸书母公司Meta这样的公司正计划投入数十亿美元在全球范围内建设新设施,重塑技术、能源和当地社区,同时引发对环境影响的担忧。
路透社报道指出,建造人工智能的竞争由被称为GPU的小型硅芯片驱动,这些芯片最初是为电子游戏而设计的。科技公司现在尽可能密集地将GPU——非常适合运行支持人工智能计算的芯片——装入专用计算机中。其结果是一种新型超级计算机——一种由多达10万台芯片组成的系统,这些芯片在被称为数据中心的建筑物内连接在一起,以构建强大的人工智能系统。
所有这些计算能力都需要高昂的成本。作为ChatGPT开发者的OpenAI计划建造约五座设施,这些设施的总耗电量将超过马萨诸塞州约300万户家庭的用电量。随着科技公司追逐人工智能的梦想,这些数据中心正在全球各地迅速涌现,迫使科技巨头寻找为其供电的电力及冷却系统的用水,以防止芯片因过热而损坏。
这是自万维网诞生以来计算领域最根本的变化之一。正如公司在1990年代彻底改造其计算机系统以适应新商业互联网一样,他们现在从基础开始全面重建——从小小的组件到计算机的存放和供电方式——以适应人工智能的发展。
探索您感兴趣的故事:
区块链 – 5个故事
网络安全 – 7个故事
金融科技 – 9个故事
电子商务 – 9个故事
机器学习 – 8个故事
教育科技 – 6个故事
过去二十年,大型科技公司在全球各地建立了计算机数据中心。这些中心配备了大量计算机来处理涌入公司互联网服务的海量在线流量,包括搜索引擎、电子邮件应用程序和电子商务网站。但与即将出现的相比,这些设施显得微不足道。早在2006年,谷歌在俄勒冈州的The Dalles开设了第一个数据中心,估计耗资6亿美元建成该设施。今年一月,OpenAI和几个合作伙伴宣布了一项计划,在德克萨斯州建立一个校园,并开始投资约1000亿美元用于新建数据中心,最终计划向美国其他地区的类似设施追加投资4000亿美元。这种计算变革不仅重塑了技术,还深刻影响了金融、能源和社区。私募股权公司正在向数据中心公司注入资金,电工们纷纷涌入正在建设设施的地区。在某些地方,当地人担心其带来的负面影响超过正面作用,因此反对这些项目。
目前,科技公司要求的计算能力和电力超过了世界所能提供的。OpenAI计划筹集数千亿美元,在中东建设计算机芯片工厂。谷歌和亚马逊近期达成协议,将建造并部署新一代核反应堆,并且他们希望尽快完成目标。当一家小型中国公司DeepSeek在12月声称使用远少于许多专家认为可能的计算机芯片建造了世界上功能最强大的AI系统时,更大的更好这一口号受到了挑战,这引发了对硅谷疯狂支出的质疑声。美国科技巨头对此并不在意。这些公司的宏伟目标是创造通用人工智能(AGI),即一台能够完成人类大脑能完成的所有任务的机器,他们依然坚信拥有更强的计算能力对于达成此目标至关重要。亚马逊、Meta、微软和谷歌母公司Alphabet最近表示,它们的资本支出——主要用于建设数据中心——可能在今年突破3200亿美元,这比两年前的支出翻了一番多。《纽约时报》走访了加州、犹他州、德克萨斯州和俄克拉荷马州的五个新建数据中心园区,并与50多位高管、工程师、企业家和电工交流,讲述了科技行业对这种新型计算的无限需求的故事。“未来十年可能发生的事已被压缩至两年内完成,”谷歌首席执行官Sundar Pichai在接受《纽约时报》采访时说。“人工智能是加速器。”
为新的人工智能打造新芯片
人工智能计算的巨大飞跃是由一个小小的成分推动的:称为图形处理单元(GPU)的专用计算机芯片。像硅谷芯片制造商英伟达这样的公司最初设计这些芯片是为了渲染视频游戏中的图形。但GPU擅长运行支持神经网络的数学运算,神经网络可以通过分析大量数据来学习技能。神经网络是聊天机器人和其他领先人工智能技术的基础。
在过去,计算主要依赖于中央处理器(CPU)之类的芯片。这些芯片可以做很多事情,包括支持神经网络的基本数学运算。但GPU可以更快地进行这些数学运算——快得多。在任何给定时刻,传统芯片只能进行一次计算。在同一时刻,GPU可以进行成千上万次计算。计算机科学家称之为并行处理。这意味着神经网络可以分析更多数据。“这些芯片与仅用于提供网页的芯片截然不同,”Together AI的技术咨询公司首席执行官Vipul Ved Prakash说。“它们运行数百万次计算,作为机器‘思考’问题的方式。”
因此,科技公司开始利用越来越多的GPU构建日益强大的人工智能技术。在此过程中,英伟达专门针对人工智能重新设计了其GPU,每块芯片集成了更多晶体管以便每秒执行更多计算。2013年,谷歌开始自行开发AI芯片。这些谷歌和英伟达芯片并非设计用于运行计算机操作系统,也无法处理运行Windows笔记本电脑或iPhone所需的各种功能。但它们协同工作,加速了人工智能的开发。“旧模式延续了大约50年,”负责谷歌开发新硅芯片以用于人工智能的工程师Norm Jouppi说。“我们现在采用了一种全新的方法。”
为新的人工智能打造新芯片
芯片彼此越靠近,其工作效率就越高
不仅仅是芯片不同。为了充分发挥GPU的性能,科技公司必须加快数字数据在芯片之间的流动。“每个GPU都需要尽可能快地与其他每一个GPU通信,”Cirrascale Cloud Services首席技术官Dave Driggers说,该公司位于德克萨斯州奥斯汀运营着一个数据中心,为著名的人工智能研究机构艾伦人工智能研究所提供支持。芯片彼此越靠近,其工作效率就越高。因此,公司正尽可能多地在单个数据中心内布置芯片。他们还研发了新的硬件和电缆,以快速实现芯片间的数据流。这正在改变数据中心的运作方式——本质上是堆满计算机设备的大楼。
在2021年人工智能热潮之前,Meta在盐湖城以南约一小时车程处开设了两个数据中心,并在那里建造了三个更多的数据中心。这些设施——每个横跨沙漠的面积相当于平放的帝国大厦——将助力公司为其社交媒体应用(如Facebook和Instagram)提供支持。但在2022年OpenAI推出ChatGPT后,Meta重新审视了其人工智能计划。它必须在新数据中心内密集部署数千个GPU,以便它们能够处理构建单一神经网络所需的数周乃至数月的计算,从而推动公司的AI发展。“一切必须作为一个巨型、数据中心规模的超级计算机运行,”Meta数据中心副总裁Rachel Peterson表示。“这是一个全新的公式。”
几个月内,Meta在另外五个数据中心附近破土动工建设第六个和第七个犹他州数据中心建筑。在这些占地70万平方英尺的设施中,技术人员在每个机架中安装用于训练AI的硬件,插入装满GPU的箱式设备,每台设备的成本高达数万美元。2023年,Meta发生了42亿美元的重组支出,部分原因是重新规划许多未来的AI数据中心项目。其行动反映了整个科技行业正在经历的转型。
人工智能设备需要更多的电力——远远超出预期
配备了大量GPU的新数据中心带来了新的电力需求,如此之多,以至于电力需求呈指数级增长。2023年12月,Cirrascale租赁了位于奥斯汀的一座139,000平方英尺的传统数据中心,该设施消耗5兆瓦电力,相当于约3,600户普通美国家庭的用电量。内部排列了约80排计算机。随后该公司拆除了旧计算机,将该设施改造成专门用于人工智能计算的环境。过去这5兆瓦电力可支持整栋装满CPU的建筑运行,如今仅够运行8到10排装满GPU的计算机。Cirrascale可以从电网扩展至约50兆瓦电力,但这仍不足以填满整个数据中心所需的GPU。这依然属于较小规模的。OpenAI计划建造约五座数据中心,其耗电量超过300万户家庭的总用电量。
不仅这些数据中心将更多设备密集地安置在一个更小的空间内,围绕人工智能的计算机芯片所需电力远超传统芯片。典型CPU运行需约250至500瓦,而GPU最高可达1,000瓦。建设数据中心最终是一场与当地电力公司的谈判:能提供多少电力?成本如何?如果需要投入数百万美元新设备扩展电网,谁来承担升级费用?
2023年,美国数据中心消耗了全国总用电量的大约4.4%,是加密货币挖矿设施用电量的两倍以上。据能源部12月发布的报告,这一比例到2028年可能增至三倍。“时间是当前行业的关键资源,”领导撰写该报告的劳伦斯伯克利国家实验室研究员阿尔曼·舍哈比表示。他表示,行业内正加速建设,他表示,在未来几年内,他看不到这种趋势减缓。
数据中心运营商在美国已难以获得充足电力。在像弗吉尼亚北部这样的地区——由于靠近连接欧洲的海底电缆,这里是全球最大的数据中心枢纽——这些公司几乎耗尽了可用电力。一些人工智能巨头转向核能。微软正在重启宾夕法尼亚州的三哩岛核电站项目。埃隆·马斯克及其AI初创公司xAI最近放弃清洁能源,转而寻求更快的解决方案:在田纳西州孟菲斯的新数据中心安装自家燃气涡轮机。“我的对话已经从‘我们如何获取最先进芯片?’转变为‘我们如何获取电力?’”风险投资公司Radical Ventures的合伙人大卫·卡茨说道。
这些异常密集的AI系统还引发了另一个变化:一种全新的计算机散热方式。这些AI系统会变得非常热。当空气从前端进入并经过处理计算的芯片时,会升温。在Cirrascale奥斯汀数据中心,一个机架周围温度从前侧的71.2华氏度升至后侧的96.9华氏度。若未适当冷却,机架内的机器甚至整个数据中心都可能因过热而起火。
位于俄克拉荷马州普赖尔镇外,一个以农畜牧业为主的小镇东北角,谷歌正在大规模应对这一问题。十三个谷歌数据中心矗立在草地上。该园区容纳了成千上万台机器机架,使用来自混凝土建筑之间金属和电线供电站输送的数百兆瓦电力。为防止机器过热,谷歌向所有13栋建筑注入冷水。过去,谷歌的水管仅在计算机机架旁的空通道中流动,吸收周围空气热量。但如今谷歌将水管直接贴近芯片,唯有如此,水才能吸收热量并维持芯片正常运行。
由于数据中心内布满电气设备,通过水管泵送水存在一定风险,因此谷歌在水中添加化学物质,降低其导电性和损害芯片的可能性。一旦水吸收了所有这些芯片的热量,科技公司还需找到方法使水降温。在许多情况下,他们会使用巨型冷却塔置于数据中心屋顶,部分水从冷却塔蒸发,从而冷却其余水,如同人体出汗蒸发时的冷却效果。“这被称为自由冷却——即在凉爽干燥的清晨自然发生的蒸发现象,”谷歌数据中心副总裁乔·卡瓦表示。
采用此方法的谷歌及其他公司需不断补充流经数据中心的水,这可能给当地水资源造成压力。2023年,谷歌数据中心消耗了61亿加仑水,较上年增长17%。在面临干旱的加州,超过250个数据中心每年消耗数十亿加仑水,引起地方官员警惕。一些公司,包括Cirrascale,使用大型冷冻机——实质上是空调——来冷却水,这减轻了当地水资源压力,但需要更多电力。
未来前景不容乐观。去年,谷歌在南卡罗来纳州、印第安纳州、密苏里州等地开工建设了11个数据中心。Meta表示,其位于路易斯安那州里奇兰教区的新设施将覆盖纽约市中央公园、曼哈顿中城、格林威治村及下东区大部分区域。“这是人工智能的关键一年,”Meta首席执行官马克·扎克伯格在一月份的Facebook帖子中写道,“让我们开始建造吧!”
(以上内容均由Ai生成)