AI

英伟达计划2026年用光通信连接AI GPU,下一代数据中心或成标配

发布时间:2025年8月25日    来源:szf
英伟达计划2026年用光通信连接AI GPU,下一代数据中心或成标配

快速阅读: 英伟达宣布2026年推出采用CPO技术的Quantum-X和Spectrum-X光互连平台,提升数据传输速率和能效,减少功耗和延迟,满足大规模AI集群需求。

英伟达在今年早些时候宣布,其下一代机架规模的人工智能平台将采用硅光子互连技术,配备共封装光学元件(CPO),以实现更高的传输速率和更低的功耗。今年在Hot Chips会议上,英伟达发布了关于其下一代Quantum-X和Spectrum-X光互连解决方案的更多信息,并透露这些产品将于2026年上市。

英伟达的技术路线图预计会紧随台积电的COUPE路线图,分三个阶段展开。第一代是用于OSFP连接器的光引擎,提供1.6 Tb/s的数据传输速度,同时降低功耗。第二代采用CoWoS封装技术,集成共封装光学元件,使主板级别的数据传输速率达到6.4 Tb/s。第三代目标是在处理器封装内实现12.8 Tb/s的数据传输速率,并进一步减少功耗和延迟。

为什么选择CPO?

在大规模人工智能集群中,数千个GPU需要协同工作,这给处理器之间的互连带来了挑战。传统的每个机架配备一级(Top-of-Rack)交换机并通过短铜缆相连的方式不再适用。为了创建一个低延迟的网络结构,交换机被移至机架行尾,这大大增加了服务器与首个交换机之间的距离,使得铜缆在800 Gb/s的速度下变得不切实际,因此需要光连接来实现几乎所有的服务器到交换机和交换机之间的链接。

在这样的环境中使用可插拔光模块存在明显的局限性:数据信号离开ASIC后,需经过电路板和连接器才能转换为光信号,这一过程会产生严重的电信号损耗,最高可达约22分贝,这需要复杂的补偿机制,导致每个端口的功耗增加到30W,进而需要额外的冷却措施并成为潜在的故障点。随着人工智能部署规模的扩大,这种问题变得难以忍受,英伟达指出。

CPO通过将光转换引擎直接嵌入交换ASIC旁边,避免了传统可插拔光模块带来的损失。信号几乎立即耦合到光纤中,而不是经过长距离的电信号传输,从而将电信号损耗降至4分贝,每个端口的功耗降至9W。这种布局减少了多个可能失效的组件,极大地简化了光互连的实施。

英伟达表示,通过放弃传统的可插拔收发器并将光引擎直接集成到交换芯片中(借助台积电的COUPE平台),实现了效率、可靠性和可扩展性的显著提升。与可插拔模块相比,CPO的改进非常显著:能效提高3.5倍,信号完整性提升64倍,由于活动设备数量减少,可靠性提高了10倍,部署时间也缩短了约30%,因为服务和组装变得更加简单。

英伟达将在以太网和InfiniBand技术中引入基于CPO的光互连平台。首先,该公司计划在2026年初推出Quantum-X InfiniBand交换机。每台交换机将提供115 Tb/s的吞吐量,支持144个800 Gb/s的端口。系统还集成了一个14.4 TFLOPS的网络处理ASIC,支持英伟达第四代可扩展层次聚合减少协议(SHARP),以降低集体操作的延迟。这些交换机将采用液冷技术。

与此同时,英伟达还计划在2026年下半年通过其Spectrum-X光子平台将CPO引入以太网。该平台将依赖于Spectrum-6 ASIC,驱动两个设备:SN6810提供102.4 Tb/s的带宽,拥有128个800 Gb/s的端口;更大的SN6800则扩展到409.6 Tb/s,同样拥有512个800 Gb/s的端口。这两款设备也将采用液冷技术。

Nvidia 认为,其基于 CPO 的交换机将为生成式人工智能应用提供新的 AI 集群,这些应用正变得越来越大且复杂。由于采用 CPO 技术,这些集群将消除数千个独立组件,从而实现更快的安装、更简便的维护和更低的功耗。因此,使用 Quantum-X InfiniBand 和 Spectrum-X 光学技术的集群在启动时间、首次生成时间及长期可靠性方面表现出色。

Nvidia 强调,共封装光学不是可选增强,而是未来 AI 数据中心的结构性需求。这意味着 Nvidia 将把其光学互连作为与 AMD 等竞争对手相比的关键优势之一。这也是 AMD 收购 Enosemi 的原因。

关于 Nvidia 的硅光子项目,重要的一点是其发展与台积电的 COUPE 平台紧密相关,后者将在未来几年内不断进化,从而进一步提升 Nvidia 的 CPO 平台性能。台积电的第一代 COUPE 通过叠加 65nm 电子集成电路和光子集成电路,并采用 SoIC-X 封装技术制造而成。

台积电的 COUPE 路线图分为三个阶段。第一代是用于 OSFP 连接器的光学引擎,提供 1.6 Tb/s 的数据传输速率,同时降低功耗。第二代将采用 CoWoS 封装技术,实现主板级别的 6.4 Tb/s 传输速率。第三代目标是在处理器封装内实现 12.8 Tb/s 的传输速率,并进一步降低功耗和延迟。

(以上内容均由Ai生成)

你可能还想读

TCS推AI机器狗进军航空业

TCS推AI机器狗进军航空业

快速阅读: 据印度塔塔咨询服务公司(TCS)发布消息称,全球航空航天业加速绿色智能化转型,40%企业预计五年内实现“熄灯工厂”,数字孪生与eVTOL成重点方向,物理AI机器人有望获批用于高危场景。 日前,全球航空航天产业加速向绿色化、智能化 […]

发布时间:2025年12月8日
Meta签约多家媒体,为AI提供实时新闻

Meta签约多家媒体,为AI提供实时新闻

快速阅读: 据媒体报道,Meta与CNN、福克斯新闻等多家国际媒体签署AI数据合作协议,重启付费合作以提升Meta AI在新闻时效性与准确性方面的表现,并引导用户访问合作方网站。 日前,美国科技企业Meta宣布与多家国际新闻机构签署商业人工 […]

发布时间:2025年12月8日
Semaverse推AI平台赋能并购决策

Semaverse推AI平台赋能并购决策

快速阅读: 据最新消息,人工智能初创企业Semaverse近日推出“并购智能基础设施”平台,依托多智能体架构与智能记忆系统,为私募股权基金等提供覆盖交易全周期的五大智能化功能,助力数据驱动决策。 近日,人工智能初创企业Semaverse正式 […]

发布时间:2025年12月8日
Gartner建议全面禁用AI浏览器

Gartner建议全面禁用AI浏览器

快速阅读: 据Gartner发布消息称,AI浏览器存在严重数据安全与隐私风险,其侧边栏功能可能自动上传敏感信息至云端,企业部署前须严格评估后端安全机制并限制高危操作场景。 日前,国际知名研究机构Gartner发布风险警示,指出当前流行的AI […]

发布时间:2025年12月8日
利雅得航空携手IBM打造全球首家AI原生航司

利雅得航空携手IBM打造全球首家AI原生航司

快速阅读: 据最新消息,IBM依托混合云与红帽OpenShift技术,为175国客户提供AI及量子计算等创新方案,加速金融、医疗等关键领域数字化转型,深化本地化服务以提升全球产业链智能化水平。 国际商业机器公司(IBM)日前宣布,其作为全球 […]

发布时间:2025年12月8日
英语国家民众对AI更悲观

英语国家民众对AI更悲观

快速阅读: 据YouGov发布消息称,其2025年8月对九国调查显示,西欧民众对AI态度较积极,英语国家更悲观,就业影响最受担忧,而医疗、办公等领域获普遍认可。 日前,国际民调机构YouGov发布一项涵盖九国的调查报告显示,公众对人工智能( […]

发布时间:2025年12月8日
AI无法替代税务专家的判断与质疑

AI无法替代税务专家的判断与质疑

快速阅读: 12月8日消息,专家警示AI在税务申报中存在合规与伦理风险,强调其无法替代专业判断,呼吁合理界定应用边界,防范不法机构借智能算法诱导激进申报,确保人机协同、合法合规。 近日,有关人工智能在税务申报领域应用的讨论引发关注。专家指出 […]

发布时间:2025年12月8日
德州法学院以伦理先行培养AI时代律师

德州法学院以伦理先行培养AI时代律师

快速阅读: 据彭博法律报道,美国得州多所法学院以伦理为先推动AI审慎融入法律教育,要求明确使用规范并强调人类判断不可替代,呼应州律师协会第705号伦理准则。 近日,美国得克萨斯州在人工智能时代积极探索法律教育的务实路径,强调以伦理为先、审慎 […]

发布时间:2025年12月8日