全球存储器市场“涨价+缺货”,存储为何成了香饽饽?
近日,三星电子、SK海力士等头部内存供应商正式宣布,2025年四季度将持续上调DRAM与NAND等核心存储产品报价,涨幅最高达30%。“涨价+缺货”的双重信号,成为全球存储器市场的主旋律?探其缘由,是AI爆发式增长带来的对高性能、大容量存储的指数级需求增长。在AI技术爆发初期,行业目光多聚焦于算力突破与算法优化,作为数据载体的存储技术往往被视作“传统基建”而被忽视。然而早在2023年,华为数据存储产品线总裁周跃峰便在多个公开场合前瞻性表示:“AI时代是一个数据觉醒的时代,作为数据的载体,数据存储亟待一场技术革命,让人类有更加好用的‘纸张’,这样才能驾驭数据!” 如今全球存储市场的涨价潮与缺货现象,恰恰印证了这一判断:存储已从AI技术栈的 “幕后支撑” 跃升为 “香饽饽”,其关键价值在AI语料库构建、模型训练与推理三大核心环节中愈发凸显。语料库是AI大模型的 “知识教材”,其规模与质量直接决定模型的能力边界。当前各行业正加速推进数据资源的汇聚与保存,推动传统 “烟囱式”数据架构向一体化AI数据湖演进,以实现文本、图像、视频等多模态语料的高效归集与按需流动。以上海瑞金医院与华为联合研发的病理大模型RuiPath为例,该模型从2021年起便依托华为数据湖存储进行系统性数据整合,最终形成百万级量级的病理切片语料库——正是这一高质量数据底座,支撑RuiPath成功进化为具备临床应用资质的专业大模型,成为医疗AI领域的标杆案例。AI 训练环节对存储的性能要求更为严苛:一方面需支撑海量训练数据的高频次调用与写入,另一方面模型训练过程中每两小时便需保存一次TB级规模的Checkpoint文件,以用于训练中断后的快速恢复,这对存储的带宽、IOPS与稳定性提出三重考验。专业AI存储通过技术创新破解了这一痛点:在升级硬件性能的同时融入数据编织能力,并借助近存计算技术实现近数据预处理。以华为OceanStor AI存储为例,其通过近数据预处理技术将训练效率提升30%以上,大幅缩短模型的训练周期。而在AI推理环节,存储性能可直接影响用户体验。当前业界普遍采用KV Cache机制加速推理过程——通过“缓存”历史推理结果来提升响应速度与准确性,但这一机制也给高带宽内存(HBM)带来负载压力。对此,清华大学与月之暗面率先提出创新解决方案:构建 HBM、DRAM 与 SSD 三级一体化存储资源池,通过智能软件实现分级存储与动态调度。华为亦在今年8月推出推理记忆数据管理器(UCM),通过高效管理历史推理 “记忆” 实现推理加速,目前中国银联、中国工商银行等金融行业标杆企业已率先部署该方案,验证了其在关键业务场景的实用价值。从市场布局来看,以OpenAI为代表的国际AI巨头已启动未来2至3年数据底座的前瞻性建设,国内阿里云、腾讯、字节等互联网科技企业也在持续加大 AI 基础设施投入。未来,存储还将随着Agentic AI的发展持续演进,可以预见,存储不再是AI发展的“配套设施”,而是成为支撑技术创新与产业升级的核心基础设施,在AI技术栈中占据不可替代的战略地位。(图片由企业提供)