首页 - 财经 - 公司新闻 - 正文

智谱官宣GLM-5底层基建进展:吞吐最高提升132%,修复方案被SGLang开源社区采纳

(原标题:智谱官宣GLM-5底层基建进展:吞吐最高提升132%,修复方案被SGLang开源社区采纳)

今日凌晨,智谱发布技术博客《Scaling Pain:超大规模Coding Agent推理实践》,首次系统披露GLM-5系列模型在超大规模Coding Agent调用场景下的底层推理技术突破。包括两个关键Bug的定位及修复、一项性能优化创新、以及一个意外的监控机制突破。
针对Context Parallel策略中的KV Cache冗余存储问题,智谱设计实现了KV Cache分层存储方案 LayerSplit —— 每张GPU仅持有部分层的KV Cache,通过广播机制完成协同计算。在Cache命中率90%条件下,40K至120K请求长度区间内,系统吞吐量提升10%至132%,且上下文越长收益越显著。这一优化直接大幅提升智谱在Coding场景下的服务能力上限。
智谱本次披露的工程突破具备明确的技术深度——团队不仅在自有推理链路中定位并修复了PD分离架构下的KV Cache跨节点复用竞态,更进一步在主流开源推理框架SGLang的源代码层面发现并修复了HiCache模块的加载时序缺失(read-before-ready)问题,修复方案被SGLang开源社区采纳,其底层基础设施能力不仅服务于自身模型,也正在成为大模型行业的公共基础设施之一。
智谱推理优化还在进一步加速,大幅提升单位算力token吞吐效率,降低推理成本。

APP下载
广告
相关股票:
好投资评级:
好价格评级:
证券之星估值分析提示智谱行业内竞争力的护城河较差,盈利能力一般,营收成长性较差,综合基本面各维度看,估值合理。 更多>>
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-