国产万卡超集群,迎来历史性突破!
当人工智能浪潮以指数级速度重塑全球科技格局,算力已成为驱动这场变革的核心引擎。2月5日,由中科曙光提供的3套万卡超集群系统在国家超算互联网核心节点同时上线试运行,成为全国首个实现3万卡部署、且实际投入运营的最大国产AI算力池,全面覆盖万亿参数模型训练、高通量推理、AI for Science等大规模AI计算场景。

这不仅意味着国产超集群技术实现从“示范”到“规模化”的关键跨越,更标志着我国在AI算力基础设施自主化与高端化道路上,迈出了坚实一步。
从“概念”到“实战“:万卡超集群的破局之路人工智能大模型正向万亿参数、多模态融合及世界模型构建全速演进,对底层算力基础设施提出了前所未有的规模与效率挑战。在当前技术竞争格局下,单一集群能否稳定承载万卡规模成为衡量算力实力的核心标尺。尽管行业内“万卡集群”的概念屡被提及,但真正实现万张AI加速卡以上单体集成并稳定运行的成功案例,此前几乎处于空白状态。
去年12月,scaleX万卡超集群在HAIC大会首次以真机形态震撼亮相,向业界展示了国产算力突破技术及规模瓶颈的可能性。令人惊叹的是,不到2个月后,即以超3万卡的AI算力实现规模落地,标志着国产万卡集群已正式迈入规模化部署与实战应用的新阶段。
这一突破的背后是复杂的系统工程。中科曙光以系统性创新,啃下了高速互联网络、存算传紧耦合设计、高密供电与散热、统一资源高效调度等技术“硬骨头”,使得单套集群可实现10240块AI加速卡部署。更值得关注的是其网络架构的全面自主化。scaleX 搭载了自主研发的原生RDMA高速网络,涵盖国内首款400G类InfiniBand网卡与交换芯片,提供400Gb/s超高带宽与低于1微秒的端侧通信延迟。相比传统IB网络,其通信性能提升约2.33倍,集群规模可轻松扩展至10万卡以上,整体成本却降低30%。
从“自主”到“开放”:构建普惠型算力新生态AI产业蓬勃发展,全球智能算力需求爆发。算力基础设施亟需具备生态兼容与弹性扩展等特征,以高效支撑多元应用场景、大幅降低产业使用门槛。
在此背景下,以scaleX万卡超集群为代表的开放架构模式正受到广泛青睐。据悉,基于AI计算开放架构scaleX万卡超集群可全面兼容CUDA等AI生态,支持多品牌国产加速卡混合部署,大幅降低开发者迁移适配门槛,更具备向十万卡、百万卡规模的灵活扩展,更好契合产业规模化发展需求。

对产业上下游而言,开放架构体系则意味着全栈生态自由对接。比如集成各个技术环节的优势资源,形成统一的技术标准体系,进而快速推进联合技术攻坚和应用方案共创,实现全国一盘棋的AI算力生态大协同。
更大的格局在于全国一体化算力体系加速建设背景下,scaleX万卡超集群所代表的开放架构正契合算力承转的需求。此次三套万卡超集群成功部署于国家超算互联网核心节点,有望借助国家级算力枢纽实现一体化算力调度,从而为全球用户提供通用、易用、高效、普惠的中国AI算力。
从“基石”到“沃土”:激活AI创新的乘数效应培育繁荣的AI产业,需要构建协同共生的创新生态。scaleX万卡超集群已完成400多个主流大模型、世界模型的适配优化,依托国家超算互联网,更可接入上千款应用,链接更多AI产业生态伙伴,实现“算力+应用”一体化交付。
实际应用中,scaleX万卡超集群持续为多场景提供深度赋能:针对超大规模模型训练,支持万亿参数模型的整机训练与容错恢复;面向高通量推理场景,已服务于多家头部互联网用户的核心智能化业务,并通过联合深度优化持续提升推理效能;在AI for Science领域,支撑国内某材料研发大模型登顶国际权威榜单,助力国内顶级科研团队将蛋白质研究效率提升3-6个数量级等;同时搭配OneScience科学大模型一站式开发平台,大幅降低多学科交叉研究的创新门槛。
“智能化的浪潮正以前所未有的力量重塑世界。”中科曙光高级副总裁李斌表示,“我们将以核心节点上线为起点,继续深化技术研发与应用实践,推动国产智能算力更高效、更稳定、更普惠地服务于经济社会发展的各个领域。”
结语scaleX万卡超集群的规模化部署与运营,不仅是一个技术里程碑,更是一个生态拐点。当算力不再受制于规模与架构,当创新得以在自主可控的沃土上自由生长,中国AI发展的底层逻辑正在被重写。
未来,随着此类超集群在国家算力网中持续落地与互联,一个覆盖全国、弹性调度、普惠高效的智能化算力网络将加速成型。可以预见,一个属于中国智能计算的新纪元,正由此启程。