“通过Scale-up打造超节点产品是未来AI服务器的必然演进趋势。”近日,新华三异构服务器研发总监刘善高在2026全球数字合作交流会暨全球数据周(Tech Week Shanghai)上如此表示。
他认为,AI超节点是把大量GPU卡通过Scale-up网络连成一个可以内存共享的超级计算机,同时也是通过Scale-out网络扩展到10万卡集群的超级服务器。而Scale-up和Scale-out不是替代的关系,本质是为了提高卡间互联带宽,做了超节点同样需要Scale-out网络;Scale-up网络目前多为私有协议,满足更多数量卡间TP/EP/SP通信带宽及时延要求,提高AI加速卡训练/推理的计算效率;Scale-out网络目前大多为RDMA网络,支持分布式系统的训练、推理,超节点系统的扩展通信等。
《中国经营报》记者注意到,做网络和通信起家的新华三5月8日在NAVIGATE2026领航者峰会上,正式推出以UniPoD S80000超节点为核心的升级版AI基础设施全栈产品。据悉,超节点UniPoD S80000面向万亿级大模型,单机柜最高支持128卡,覆盖32卡至1024卡全系列,可灵活扩展至16384卡规模,PUE(Power Usage Effectiveness,电源使用效率)可控制在1.04以下。
刘善高也表示,新华三依托“算力×联接”协同优势,坚持多元开放、以网强算,认为在算力方面,AI加速卡技术演进有以下方向:计算架构创新,多Die合封、3DRAM堆叠、SRAM缓存、存算一体等技术;提高算力、显存容量、显存带宽,提升计算性能;多种AI加速卡细分赛道,PD/AF分离专用推理芯片。
在连接方面,互联技术的演进方向包括:打造高带宽低延迟的卡间高速互联网络;卡间Scale-up高速互联,突破物理限制,统一互联技术标准;NPO和CPO光互联技术速率突破224G/448G。