是德科技推出 AI Data Center Builder,用于优化网络和主机
快速阅读: 《快速模式》消息,是德科技推出KAI数据中心构建器,通过模拟AI训练工作负载,助力评估和优化AI基础设施性能。该工具支持实验模型分区与网络配置,加速AI集群设计验证,将于OFC展会亮相。
是德科技推出**KAI(是德人工智能)数据中心构建器**,这是一款先进的软件套件,能够模拟现实世界的工作负载,以评估新的算法、组件和协议对AI训练性能的影响。KAI 数据中心构建器的工作负载仿真能力将大型语言模型(LLM)和其他人工智能(AI)模型训练工作负载集成到AI基础设施组件的设计和验证中——包括网络、主机和加速器。这一解决方案增强了硬件设计、协议、架构与AI训练算法之间的协同作用,提升了系统性能。
AI运维人员采用多种并行处理策略,也称为模型分区,以加速AI模型训练。优化模型分区与AI集群拓扑及配置的匹配,可提升训练性能。在AI集群设计阶段,许多关键问题最好通过实验来回答。这些问题大多集中在GPU之间的数据移动效率上。主要考虑因素包括:
– AI主机或机架内部的扩展互连设计
– 扩展网络设计,包括每块GPU的带宽和拓扑结构
– 网络负载均衡和拥塞控制的配置
– 训练框架参数的调优
KAI 数据中心构建器的工作负载仿真解决方案能够重现真实AI训练任务的网络通信模式,从而加速实验进程,减少熟练掌握所需的学习曲线,并为理解性能下降的原因提供更深入的见解。单纯依靠真实的AI训练任务往往难以实现这一点。是德科技的客户可以访问一个包含GPT和Llama等流行LLM工作负载的库,以及Data Parallel(DP)、Fully Sharded Data Parallel(FSDP)和三维(3D)并行等主流模型分区方案。
使用KAI 数据中心构建器中的工作负载仿真应用程序,AI操作员可以:
– 实验不同的并行性参数,例如分区大小及其在可用AI基础设施上的分布(调度)
– 深入了解分区间及分区间的通信对整体作业完成时间(JCT)的影响
– 识别低效的集体操作并深入分析瓶颈所在
– 分析网络利用率、尾部延迟和拥塞情况,了解其对JCT的影响
KAI 数据中心构建器的新工作负载仿真功能使AI操作员、GPU云服务提供商和基础设施供应商能够在实验室环境中引入实际AI工作负载,以验证AI集群和新组件的演化设计。他们还可以通过实验微调模型分区方案、参数和算法,从而优化基础设施并提高AI工作负载性能。
KAI 数据中心构建器构成了是德科技人工智能(KAI)架构的基础,这是一个端到端解决方案系列,旨在帮助客户通过验证AI集群组件的真实工作负载仿真,在数据中心中扩展人工智能处理能力。
是德科技将在2025年4月1日至3日于旧金山莫斯康会展中心举办的OFC展会上的1301号展位展示KAI 数据中心构建器及其工作负载仿真能力。
是德科技网络测试与安全解决方案副总裁兼总经理拉姆·佩里亚卡尔帕潘表示:“随着AI基础设施规模和复杂性的增长,全栈验证和优化变得至关重要。为了避免因延迟和返工带来的高昂成本,必须在设计和制造周期的早期阶段转移验证流程。KAI 数据中心构建器的工作负载仿真为AI组件和系统设计带来了更高的保真度,优化了工作负载以达到峰值性能。”
(以上内容均由Ai生成)