3月26日,中关村论坛期间,中科曙光正式发布全球首款无线缆箱式超节点scaleX40。与当前主流追求极致规模与性能天花板的超节点方案不同,scaleX40将目光投向了高端算力需求更广泛的中小规模场景。业内人士指出,其在系统架构与工程路径上的双重革新,折射出AI算力基础设施正从“规模竞赛”向“落地效率”加速切换的关键拐点,超节点向全AI应用场景渗透的步伐有望显著加快。

结构化革新,超节点突破规模束缚
过去两年,算力竞争围绕“万卡集群”持续升温,极限性能与算力规模一度成为行业热议话题。然而,随着人工智能+的深入,大模型加速向制造、金融、政务等垂直行业下沉,市场的关注点已悄然转移:从“基模”到“行模”,企业更在意的,不再是“算力能做多大”,而是“能否快速部署、稳定运行、满足业务需求、持续产生回报”。在此背景下,超节点正从少数头部客户的定制化工程,走向更具通用性的标准化产品。
scaleX40的核心突破,在于对算力系统实现方式的重构。其采用19英寸箱式设计,并引入无线缆架构,通过节点直接对插,大幅减少光纤与铜缆连接。这一设计首先改变了工程复杂度——传统高密算力系统布线繁杂,部署周期长、运维难度高,且易成为故障高发区。无线缆架构精简了连接环节,使系统结构更加紧凑,同时在高密部署场景下实现更优的能效表现。
在算力维度上,scaleX40可单节点集成40张GPU,总算力超过28 PFLOPS,并通过低时延互连提升通信效率。对于实际应用而言,这种高带宽、低时延的系统,有助于显著提升模型训练与推理效率,减少算力资源闲置与浪费。
瞄准中小规模算力需求市场蓝海
如果说技术定义了供给方式,那么用户需求结构则划定了市场边界。IDC数据显示,2026年全球AI基础设施投入仍保持较快增长,但新增需求越来越多地来自企业级与行业场景。与互联网大厂不同,普通行业客户对投入产出比的敏感度远高于对极限性能的追逐。
在实际案例和测试用例中,几十卡规模已足以覆盖绝大多数训练、推理及开发测试需求,同时在供电、散热与成本控制上更具可行性。由此,以40卡为代表的“甜点区”,正成为兼顾性能与成本的关键卡位。
scaleX40正是围绕这一市场需求精准设计:既可独立部署运行,也可通过扩展构建更大规模集群,实现算力按需供给。这种模式降低了企业初始投入门槛,也使高端算力更容易进入常规IT采购体系。从市场演进的角度看,这标志着算力正在突破头部客户的边界,向更广泛的ToB市场加速渗透,逐步走向高端算力的“标配”时代。
重构高端算力产业链商业价值
对于资本市场而言,scaleX40更值得关注的,是其对产业链价值分配格局的潜在重塑。过去,超节点多以定制化项目形式存在,收入波动较大,市场集中度高。而当算力产品具备标准化与可复制能力后,其商业模式有望带来更稳定、更可持续的需求曲线。
具体而言,三重变化值得关注:一是市场空间被打开,客户群体从互联网大厂向政务、金融、制造等行业扩散,需求更加分散但更具持续性;二是产业链价值重构,无线缆架构在一定程度上降低了对光纤、光模块等连接类硬件的依赖,系统集成、软件调度与整体交付能力的重要性显著提升,整机厂商的价值权重有望上升;三是估值逻辑重塑,当算力产品从项目制走向产品化,收入确定性与规模可预期性增强,有助于支撑更稳健的估值体系。
从落地效率来看,scaleX40通过标准化设计适配现有机房环境,大幅缩短部署周期;无线缆架构降低线缆成本与运维压力;模块化结构支持按需灵活扩展。在大模型训练、企业级推理及智能体等持续运行场景中,这种更接近“即插即用”的算力形态,正成为提升交付效率、加速AI商业闭环的重要支撑。
