首页 - 财经 - 滚动新闻 - 正文

TrendForce集邦咨询:CSP自研ASIC规模升级 英伟达(NVDA.US)多元产品线分攻AI训练与推理需求

(原标题:TrendForce集邦咨询:CSP自研ASIC规模升级 英伟达(NVDA.US)多元产品线分攻AI训练与推理需求)

智通财经APP获悉,根据TrendForce集邦咨询最新AI Server研究,在大型云端服务供应商(CSP)加大自研芯片力道的情况下,英伟达(NVDA.US)在GTC 2026大会改为着重各领域的AI推理应用落地,有别于以往专注云端AI训练市场。通过推动GPU、CPU以及LPU等多元产品轴线分攻AI训练、AI推理需求,并借由Rack整合方案带动供应链成长。

TrendForce集邦咨询表示,随着以谷歌(GOOGL.US)、亚马逊(AMZN.US)等CSP为首的自研芯片态势扩大,预估ASIC AI Server占整体AI Server的出货比例将从2026年的27.8%,上升至2030年的近40%。

为巩固在AI市场的领导地位,英伟达采取的其中一项策略为积极推动GB300、VR200等整合CPU、GPU的整柜式方案,强调可扩展至AI推理应用。本次在GTC发表的Vera Rubin被定义为高度垂直整合的完整系统,涵盖七款芯片和五款机柜。

观察Rubin供应链进度,预计2026年第二季存储器原厂可提供HBM4给Rubin GPU搭载使用,助力英伟达于第三季前后陆续出货Rubin芯片。至于英伟达 GB300、VR200 Rack系统出货进程,前者已于2025年第四季取代GB200成为主力,预估至2026年出货占比将达近80%,而VR200 Rack则约在2026年第三季度末可望逐步释放出货量能,后续发展仍需视ODM实际进度而定。

另外,AI从生成跨入代理模型时代,在生成Token的译码(Decode)阶段面临严重的延迟与存储器带宽瓶颈。为此,英伟达整合Groq团队技术,推出专为低延迟推理设计的Groq 3 LPU,单颗内建500MB SRAM、整机柜可达128GB。

然而,LPU本身的存储器容量无法容纳Vera Rubin等级的庞大参数与KV Cache。英伟达因此于本次GTC提出“解耦合推理(Disaggregated Inference)”架构,通过名为Dynamo的AI工厂作业系统,将推理流水线一分为二:处理代理型AI时,需进行大量数学运算并储存庞大KV Cache的Pre-fill、Attention运算阶段,交由具备极高吞吐量与巨量存储器的Vera Rubin执行。而受限于带宽且对延迟极度敏感的译码与Token生成阶段,则直接卸载至扩充了巨量存储器的LPU机柜上。

在供应链进度上,第三代Groq LP30由Samsung(三星)代工,已进入全面量产阶段,预计于2026年下半年正式出货,未来更规划在下一代Feynman架构中推出效能更高的LP40芯片。

APP下载
广告
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-