过去一年,中国大模型行业持续提速。随着参数规模持续刷新,模型能力不断对标甚至追平国际主流,API价格一路下探,应用场景持续拓展。技术能力不再是唯一的决胜门槛,真正拉开差距的是用户规模、应用生态与商业化效率。

自2024年底DeepSeek率先开启价格战后,2025年,阿里、百度、字节跳动等头部厂商在持续迭代模型的同时,将价格进一步打穿。这种“厘时代”的价格竞赛,在短期内极大降低了AI应用门槛,却也将一个长期被掩盖的问题暴露在台前:当模型能力不断叠加、调用频率急剧上升,真正承压的并不是算法,而是底层算力体系。
如果将大模型比作一辆性能卓越的赛车,那么算力就是燃料与赛道的综合体。当赛车进入“全民竞速”阶段,然而,原本被认为充沛的燃料供应,其实存在着一定结构性错位。大模型的持续迭代,从来不是单一模型的升级,而是国产算力与国产模型的协同发力、双向赋能。
算力突围,不在总量在质量
围绕算力的讨论,长期陷入一个“总量之争”的误区:行业一边大谈“算力过剩”,一边又在高喊“算力焦虑”,但真正站在模型工程一线,会发现问题并不在规模,而在质量。
国家高性能计算机工程技术研究中心副主任曹振南表示:当前算力供给看似繁荣,但真正“好用、易用、便宜”的算力依然稀缺。
在国产算力体系中,芯片厂商、整机厂商、基础软件、框架团队和行业应用之间,长期存在目标不一致、节奏不同步的问题,这种“孤岛效应”导致了严重的资源内耗。
如果算力只能在特定场景、特定模型、特定工程师手中“勉强跑通”,它就无法成为产业基础设施。尤其是在API价格被不断压低的背景下,算力成本与利用率直接决定了模型是否具备长期生命力。
而在现实的生产环境中,上游高毛利结构客观上限制了算力成本下探的空间,只有当芯片、系统、软件协同优化,算力才有可能从“稀缺资源”变成“普惠资源”。
与此同时,大模型的训练与推理已将算力需求推至全新量级。以讯飞星火大模型为例,其发布的X1.5版本采用全栈国产MoE架构,整体参数规模达到293B。这种近三千亿参数量级的规模化应用,对底座的训推框架、端到端训练效率提出了近乎苛刻的要求。
智算之所以在近两年愈发受到行业关注,本质上是因为通用算力已经无法承载大模型的真实负载。大模型的训练与推理是一个高度耦合的系统问题。它并非通用计算的简单延伸,而是围绕AI工作负载进行深度重构的一整套算力范式,涵盖硬件加速、通信协同、软件栈适配与系统级工程。这种挑战依靠单个厂商几乎是不可能的任务,产业界迫切需要完成从“单体性能竞赛”向“体系协同发力”的范式转移,跨越从“能跑”到“好用”的易用性鸿沟。
打通国产智算“任督二脉”
放眼国内算力体系的发展路径,实际上正在形成两种并行但逻辑完全不同的选择。
一种是以华为为代表的“精英路线”,从芯片、服务器到操作系统、软件生态,强调高度垂直整合与强控制力,通过单一体系追求极致性能与稳定性。
而另一种,则更像一场正在展开的“全面抗战”。这是一条更接近群众路线的开放路径:不依赖单一厂商完成全栈闭环,而是通过国家级算力基础设施,将政府、产业、学研、应用多方力量纳入同一张算力网络之中。
国家超算互联网,正是这一路线的核心载体。
通过一体化算力网的模式,让国产算力的演进不再依赖偶然的项目协作,而是进入一种稳定的协同轨道。随着中国智算产业逐步走向深水区,国家超算互联网这一“算力网络中枢”开始显现其底层价值。
在这一模式下,算力不再是被封装在单体系统中的能力,而是通过统一调度、共享与协同,被组织成一种可持续演进的公共型生产要素。
自2023年4月启动到2024年4月平台上线、再到2026年2月核心节点上线试运行,其作为国家级综合算力服务平台,支撑国产大模型各类注意力机制下不同参数高度的训练需要。它通过无缝兼容主流AI框架的开放架构,不仅解决了“算力平权”的问题,更为国产大模型发展搭建了“算力资源-产业需求”的顶层对接桥梁,打通了国产智能算力走向千行百业的“任督二脉”。
郑州样本:万卡集群的工程实践
理论的协同逻辑最终必须接受极端工程场景的检验。2月5日,国家超算互联网核心节点上线试运行。

作为全国一体化算力网的重要供给节点,该节点由曙光scaleX万卡超集群系统提供支撑,可对外提供超3万卡的国产AI算力,成为目前接入该平台的全最大单体国产AI算力资源池。
基于AI计算开放架构,scaleX万卡超集群兼容CUDA、ROCm等主流AI基础软件生态,大幅降低迁移适配成本与技术门槛;同时搭配曙光OneScience科学大模型开发平台,大幅提升材料、生物、气象等领域垂类模型开发效率。
截至目前,该节点已成功完成400多个主流大模型和世界模型的适配优化,依托国家超算互联网实现一体化算力调度,不仅能更广泛的支持国产开源大模型从千卡级到万卡级的差异化训练需求,还能更稳定的支持百万级到千万级的高通量推理部署需要。
2月10日,恰逢国家超算互联网核心节点上线试运行一周之际,“国产万卡算力赋能大模型发展研讨会暨联合攻关启动仪式”在郑州举办,参会模型厂商、模型加速厂商及重点行业用户,共同启动“国产大算力+国产大模型联合攻关专项计划”。
通过推动国产GPGPU统一编程接口,保障整个国产算力芯片生态的共建共赢,同时,大模型联合攻关专项针对万亿级全国产大模型进行深层适配,依托先进算力、生态算力服务平台,攻克新一代大模型的技术难题。这种“体系化作战”的方式,正在改写国产算力“碎片化”的历史。
随着核心节点接入试运行,国家超算互联网的异构算力资源池规模从全国领先迈向全球领先。平台已支持DeepSeek、Qwen、MiniMax、Zhipu、Kimi等1100余个开源大模型的下载、试用与一键开发,吸引超过3.2万名开发者入驻,并发布200余个智能体。
在AI for Science(AI4S)领域,超算互联网的科学计算智能体,已覆盖材料、化学等多个高频学科场景,将传统数十小时的科研流程压缩至数小时以内,显著降低算力试用门槛。
从算力平权到AI普惠,超算互联网连接的不只是算力供需关系,而是前沿技术、工程实践与产业落地之间长期存在的结构性断层。
筑牢智算主权:新质生产力的战略锚点

在大模型引发的全球智能变革下,智算资源已如同电力、石油般成为国家基础战略资源。自主算力不仅是发展国产大模型的必由之路,更是筑牢我国人工智能产业安全发展的根本保障。
当国产万卡集群能够在性能上对标国际主流,且在成本与易用性上展现出本土优势时,中国智算产业将从被动适配转向定义自己的算力标准与生态规范。从算力平权到AI普惠,国家超算互联网连接的不仅是算力供需,更是前沿技术与产业变革的确定性。
国产大模型产业的突围,从来不是一场孤立的算法冲刺,而是一次由底层算力与上层模型共同发起的、基于产业协同的系统性长跑。随着“模型即服务、算力即生产力、算力服务平台即创新应用平台”目标的逐步实现,中国产业界正为新质生产力锻造出一支不可动摇的定海神针,在智能时代的历史洪流中,开辟出一条自主创新的确定性出口。
原创文章,作者:志斌,如若转载,请注明出处:http://damoai.com.cn/archives/14630