首页 - 财经 - 产业观察 - 正文

这类内存,火起来了

关注证券之星官方微博:

(原标题:这类内存,火起来了)

如果您希望可以时常见面,欢迎标星收藏哦~

来源:内容编译自tomshardware,谢谢。

美光、三星和SK 海力士推出了使用 LPDDR5X 内存的小型压缩附加内存模块 (SOCAMM),旨在面向 AI 和低功耗服务器。SOCAMM 将首先用于基于 Nvidia 的GB300 Grace Blackwell Ultra Superchip 系统的服务器,旨在将高容量、高性能、小尺寸和低功耗融为一体。

SOCAMM 的尺寸为 14x90 毫米(是传统 RDIMM 的三分之一),最多可承载四个 16 芯片 LPDDR5X 内存堆栈。美光的初始 SOCAMM 模块将提供 128GB 的容量,并将依靠该公司基于其 1β(1-beta,第五代 10nm 级)DRAM 工艺技术生产的 LPDDR5X 内存设备。美光并未透露其初始 SOCAMM 棒支持的数据传输速率,但表示其内存的额定速度高达 9.6 GT/s。与此同时,SK 海力士在GTC 2025上展示的 SOCAMM 的额定速度高达 7.5 GT/s。

内存消耗了服务器功耗的很大一部分。例如,在配备每插槽 TB 级 DDR5 内存的服务器中,DRAM 的功耗超过了 CPU 的功耗。Nvidia 围绕 LPDDR5X 内存设计了Grace CPU,其功耗低于 DDR5,但实现了宽内存总线(借鉴了 AMD 和英特尔的数据中心级处理器)以提供高内存带宽。然而,对于基于GB200 Grace Blackwell 的机器,Nvidia 不得不使用焊接式 LPDDR5X 内存封装,因为没有标准的 LPDDR5X 内存模块可以满足其容量要求。

美光的 SOCAMM 改变了这一现状,它提供了一种标准模块化解决方案,可以容纳四个 16 芯片 LPDDR5X 内存堆栈,可能提供相当大的容量。美光表示,其 128GB SOCAMM 消耗的电量仅为 128GB 容量 DDR5 RDIMM 消耗的电量的三分之一,这是一个很大的优势。不幸的是,目前尚不清楚美光的 SOCAMM 是否会成为 JEDEC 支持的行业标准,还是仍将作为美光、三星、SK 海力士和 Nvidia 为运行 Grace 和 Vera CPU 的服务器开发的专有解决方案。

Micron 的 SOCAMM 内存条已投入量产,因此预计基于 Nvidia 的 GB300 Grace Blackwell Ultra Superchip 的系统将使用此内存。模块化内存简化了服务器的生产和维护,这将对这些设备的价格产生积极影响。

美光计算和网络业务部高级副总裁兼总经理 Raj Narasimhan 表示:“人工智能正在推动计算领域的范式转变,而内存是这一变革的核心。美光对 Nvidia Grace Blackwell 平台的贡献为人工智能训练和推理应用带来了显著的性能和节能优势。HBM 和 LPDDR 内存解决方案有助于释放 GPU 的更高计算能力。”

火爆的 SOCAMM,是什么?

据SEDaily报道, Nvidia 正与内存制造商 SK 海力士、美光和三星合作,创建一种体积小但性能强大的新内存标准。

这项名为“片上系统高级内存模块”(SOCAMM)的新标准正在与三家大型内存制造商合作。该报告称(通过机器翻译):“Nvidia 和内存公司目前正在交换 SOCAMM 原型以进行性能测试”。我们可能很快就会看到这项新标准,并补充说“最早可能在今年晚些时候实现大规模生产”。

据推测,SOCAMM 模块将被 Nvidia 在 2025 年 CES 上发布的Project Digits AI 计算机的下一代继任者使用。由于多种因素,SOCAMM 预计将比低功耗压缩附加内存模块 (LPCAMM) 和传统 DRAM 有显著的升级。

首先,与采用 SO-DIMM 外形尺寸的传统 DRAM 相比,SOCAMM 的成本效益更高。报告进一步详细说明,SOCAMM 可能会将 LPDDR5X 内存直接放置在基板上,从而提高能效。

其次,据报道,与 LPCAMM 和传统 DRAM 模块相比,SOCAMM 具有大量 I/O 端口。SOCAMM 拥有多达 694 个 I/O 端口,远超 LPCAMM 的 644 个或传统 DRAM 的 260 个。

据报道,新标准还拥有一个“可拆卸”模块,这可能会提供后续的轻松升级能力。结合其较小的硬件占用空间(SEDaily 报道称其大小约为成人的中指大小),它比传统的 DRAM 模块更小,这可能会提高总容量。

有关 SOCAMM 的详细信息仍然笼罩在神秘之中,因为 Nvidia 似乎是在没有联合电子设备工程委员会 (JEDEC) 任何意见的情况下制定该标准的。

这可能会成为一件大事,因为 Nvidia 似乎正在独自冒险,在主要内存制造商的推动下改进和创建新标准。但是,SO-DIMM 的辉煌时代已经过去一段时间了,因为CAMM 通用规范即将取代它。

原因可能在于该公司专注于 AI工作负载。运行本地 AI 模型需要大量 DRAM,而 Nvidia 明智的做法是推动更多 I/O、容量和更多可配置性。

黄仁勋在 2025 年国际消费电子展 (CES 2025) 上明确表示,让人工智能成为主流是该公司的一大重点,尽管这并非没有受到批评。虽然 Nvidia 最初的 Project Digits AI 计算机将于今年 5 月上市,但 SOCAMM 的出现可能是许多人等待的一个很好的理由。

半导体精品公众号推荐

专注半导体领域更多原创内容

关注全球半导体产业动向与趋势

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4069期内容,欢迎关注。


『半导体第一垂直媒体』

实时 专业 原创 深度

公众号ID:icbank

喜欢我们的内容就点“在看”分享给小伙伴哦


微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-