中国建立了数百个 AI 数据中心,以赶上 AI 的繁荣。现在许多都没有使用。
快速阅读: 《麻省理工学院科技评论》消息,AI推理需求改变数据中心格局:靠近用户集中地更重要,中部和西部地区吸引力下降。尽管英伟达芯片采购成本高,但GPU租赁价创新低,许多数据中心因成本压力闲置。
深度求索(深度求索)的R1和OpenAI的ChatGPT等推理模型的兴起也改变了企业对数据中心的需求。借助这项技术,大多数计算需求来自响应用户查询时进行逐步逻辑推理,而非模型训练和创建的过程本身。这一推理过程通常能带来更好的结果,但耗时更长。因此,低延迟(数据在网络中一个点到另一个点传输所需的时间)的硬件至关重要。数据中心需要靠近李的家乡河南省会郑州这样的主要科技中心,以减少传输延迟,并确保能够获得高技能的操作与维护人员。这种变化意味着,在电力和土地成本较低的中国中部、西部和农村地区建造的许多数据中心对人工智能公司已失去吸引力。在李的家乡河南省会郑州,一座新建的数据中心甚至向当地科技公司发放免费计算券,但仍难以吸引客户。
此外,近年来涌现的许多新数据中心优化的是预训练工作负载——在大规模数据集上运行的大规模持续计算,而不是推理任务,即实时运行经过训练的推理模型以响应用户输入的过程。推理所需的硬件与传统用于大规模人工智能训练的硬件有所不同。英伟达H100和A100等GPU更注重速度和内存容量,专为大规模数据处理而设计。但随着人工智能转向实时推理,行业正在寻求更加高效、响应迅速且经济实惠的芯片。
哪怕基础设施需求出现一点偏差,也可能导致数据中心无法满足客户的任务需求。在这种情况下,GPU租赁价格已降至历史最低点。据中国媒体《智能永续》报道,配置了八块英伟达H100的服务器现在每月租金仅为75,000元,而此前高峰时约为180,000元。范先生指出:“一些数据中心宁可闲置也不愿承担高额运营成本带来的更大损失,‘即便只有一部分运行,收益也难以抵消电费和维护成本。’”
这显得矛盾——中国虽有英伟达芯片的最高采购成本,但GPU租赁价格却极低。尤其在中国中部和西部地区,计算能力过剩与高端芯片短缺并存。
(以上内容均由Ai生成)