美光正式送样业界高容量SOCAMM2模组,满足AI数据中心对低功耗DRAM的需求

发布时间:2025-10-29 15:04
作者:AMEYA360
来源:美光
阅读量:701

  2025年10月23日,爱达荷州博伊西市——在当今时代,人工智能(AI)实现了前所未有的创新和发展,整个数据中心生态系统正在向更节能的基础设施转型,以支持可持续增长。随着内存在AI系统中逐渐发挥越来越重要的作用,低功耗内存解决方案已成为这一转型的核心。美光科技股份有限公司(纳斯达克股票代码:MU)近日宣布其192GB SOCAMM2(small outline compression attached memory modules,小型压缩附加内存模块)已正式送样,以积极拓展低功耗内存在AI数据中心的广泛应用。2025年3月,美光发布了业界首款LPDRAM SOCAMM,而新一代SOCAMM2则在此基础上实现了功能的进一步拓展,在相同的规格尺寸中实现50%的容量提升,增加的容量可以将实时推理工作负载中首个token生成时间(TTFT)显著缩短80%以上1。192GB SOCAMM2采用美光领先的1-gamma DRAM制程技术,能效提高20%以上2,有助于实现大型数据中心集群的电源设计优化。这一能效提升在全机架AI安装中尤为显著,可配置超过50TB的CPU附加低功耗DRAM主存储3。SOCAMM2的模块化设计提升了可维护性,并为未来的容量扩展奠定了基础。

美光正式送样业界高容量SOCAMM2模组,满足AI数据中心对低功耗DRAM的需求

  基于与NVIDIA的五年合作,美光率先将低功耗服务器内存引入数据中心使用。SOCAMM2为AI系统的主存储带来了LPDDR5X超低功耗和高带宽的内在优势。SOCAMM2的设计旨在满足大规模AI平台不断扩展的需求,提供AI工作负载所需的高数据吞吐量,同时实现新的能效水平,并为AI训练和推理系统设定新标准。这些优势的结合将使SOCAMM2成为未来几年业界领先AI平台的关键内存解决方案。

  美光资深副总裁暨云端内存事业部总经理Raj Narasimhan表示:“随着AI工作负载变得更加复杂而严苛,数据中心服务器必须提升效率,为每瓦特的功率提供更多tokens。凭借在低功耗DRAM领域公认的领先地位,美光能确保我们的SOCAMM2模块提供所需的数据吞吐量、能效、容量和数据中心级别的品质,这些对于驱动下一代AI数据中心服务器至关重要。”

  通过专门的设计功能和增强测试,美光SOCAMM2产品从最初为手机设计的低功耗DRAM升级为数据中心级解决方案。多年来,美光在高质量数据中心DDR内存方面的丰富经验,使SOCAMM2具备满足数据中心高标准应用所需的质量与可靠性。

  与同等能效的RDIMM相比,SOCAMM2模块的能效提高了三分之二以上4,同时将其性能封装到三分之一大小的模块中5,不仅优化了数据中心占地面积,还最大限度地提高了容量和带宽。SOCAMM的模块化设计和创新的堆叠技术提高了可维护性,并有助于液冷服务器的设计。

  美光一直是JEDEC SOCAMM2规范制定的积极参与者,并与行业合作伙伴密切合作,共同推动标准演进,加快AI数据中心的低功耗应用,以助力整个行业的能效提升。目前,SOCAMM2样品已送样客户,单一模组容量高达192GB,速率达9.6 Gbps,后续量产作业将配合客户的产品推出日程规划。

  1经美光内部测试验证的性能提升:使用LMCache GH200 NVL2平台(288GB HBM3E+1TB LPDDR5x)上的Llama 3 70B模型进行推断,OSL=128。

  2 与美光的上一代LPDDR5X相比。

  3 基于已公布的NVL144机架系统容量数据。

  4 与两个128GB、128位总线宽度的DDR5 RDIMM模组相比,基于一个128GB、128位总线宽度的SOCAMM2模组的功耗(瓦特)计算。

  5 计算将SOCAMM2的面积(14 x 90mm)与标准服务器RDIMM进行对比。


(备注:文章来源于网络,信息仅供参考,不代表本网站观点,如有侵权请联系删除!)

在线留言询价

相关阅读
美光宣布:HBM4已批量出货!
  2026年3月16日,美国存储芯片大美光科技正式宣布,其已于2026年第一季度开始批量出货HBM4 36GB 12H内存,该产品专为英伟达(NVIDIA)Vera Rubin平台设计。凭借HBM4,美光实现了超过11 Gb/s的引脚速度,带宽超过2.8 TB/s,相比其HBM3E,带宽提升了2.3倍,能效提升超过20%。  为了进一步提升HBM的容量,美光展示了其先进的封装技术,可将16颗HBM芯片堆叠在一起,并已向客户交付了HBM4 48GB 16H的样品。与HBM4 36GB 12H产品相比,这一里程碑式的改进使每颗HBM芯片的容量提升了33% 。  “下一代人工智能将由整个生态系统通过联合工程创新开发的紧密集成平台定义。我们与英伟达的紧密合作确保了计算和内存从一开始就能协同扩展,”美光科技执行副总裁兼首席商务官 Sumit Sadana 表示。“这一切的核心是美光的 HBM4,它是人工智能的引擎,可提供前所未有的带宽、容量和能效。随着 HBM4 36GB 12H 的推出,以及业界首款 SOCAMM2 和第六代 SSD 的量产,美光的内存和存储构成了释放下一代人工智能全部潜力的核心基础。”  美光SOCAMM2 专为英伟达 Vera Rubin NVL72 系统和独立Vera CPU平台而设计,每个 CPU 可实现高达 2TB 的内存和 1.2 TB/s 的带宽。  美光是首家量产 PCIe Gen6 数据中心级 SSD 的公司。美光 9650 针对能效和液冷环境进行了优化,采用英伟达BlueField-4 STX 参考架构,可为 AI 训练和推理工作负载提供高速、低延迟的数据访问,支持高达 28 GB/s 的顺序读取吞吐量和 550 万随机读取 IOPS。美光 7600 和 9550 SSD 为客户提供 PCIe Gen5 SSD,从而扩展了他们的架构设计选择。
2026-03-19 09:48 阅读量:222
美光与Cadence Design Systems合作,加速DLEP验证和合规进程
  半导体生态系统是一个高度复杂、互相关联的框架,其中包括各种行业、技术和机构,旨在促进半导体器件的设计、制造、分销和应用。设计和知识产权 (IP) 提供商是该框架的组成部分,在经历了各种大幅演变之后,这些提供商已成为当代芯片开发中不可或缺的参与者。  随着上世纪 80 年代电子设计自动化 (EDA) 工具的出现,以及上世纪 90 年代半导体 IP 产业的发展,片上系统 (SoC) 设计越来越依赖于可复用的 IP 模块。目前,在 SoC 所包含的器件中,超过 80% 为可复用 IP,典型的芯片会集成 200 多个 IP 模块。1  在半导体市场引入新技术,是一个相当复杂的过程。其中生态系统伙伴(包括 IP 提供商和验证 IP (VIP) 软件供应商)对新技术的支持程度往往起着决定性作用——可能会阻碍新技术的普及,也可能加速商业上的成功。  美光与 Cadence Design Systems 之间的战略合作,标志着内存技术进步旅程中的重大里程碑。此次合作的重点是将直接链路 ECC 协议 (DLEP) 功能嵌入 Cadence 最新的 LPDDR5/5X 内存控制器 IP、物理层 (PHY) IP 和验证 IP (VIP) 中,从而显著提高人工智能、汽车和数据中心应用中的系统性能。  DLEP 在内存技术中的重要性  DLEP 是一项重大创新,旨在解决传统内联纠错码 (ECC) 技术的固有局限性。对于现代车辆中的高性能 AI 应用和高可靠性高级驾驶辅助系统 (ADAS) 应用而言,该技术尤为重要。DLEP 的核心优势在于其能够回收较大比例的有效负载内存空间和带宽,否则这些空间和带宽将被分配给内联 ECC 使用。这种回收能力,是 DLEP 能够提高系统性能和资源效率的基础。美光与 Cadence 携手合作,充分实现了这些增强功能。  DLEP 是一项重大创新,旨在解决传统内联 ECC 技术存在的局限性。DLEP 所实现的改进对于需要高可靠性和极高性能的应用至关重要,例如汽车行业中的 AI 加速器和 ADAS。使用标准 DRAM 与使用支持 DLEP 的 DRAM 进行 ECC 数据传输的对比  DLEP 的主要优势之一是它能够回收相当大比例的有效负载内存空间、至少 6% 的额外可寻址内存空间和带宽,可将带宽增加 15% 至 25%。如果没有 DLEP,这些空间和带宽将被用于内联 ECC 纠错。这种回收能力可带来系统性能和效率的提高,从内存管理的角度来看,功耗(pJ/b,皮焦耳/位)可降低约 10%。2 美光与 Cadence 之间的合作确保了这些优势的充分发挥。  从图中可以看出,与内联 ECC 相比,DLEP 的带宽要增加 15% 至 25%  通过战略合作确保集成和验证  美光的高级 DLEP 功能已无缝集成到 Cadence 的 LPDDR5/5X IP 组合和 VIP 工具套件中。这种集成旨在优化复杂 SoC 设计的验证过程,从而能够在各种应用中高效部署 DLEP 技术。VIP 解决方案对于验证新兴内存技术的运行和效率起到重要作用。美光与 Cadence 建立了稳固的合作关系,以确保 DLEP 的快速普及,从而为内存技术确立新的标准。  Cadence 的 VIP 工具集提供了一些至关重要的优势,例如对复杂 SoC 架构进行彻底验证、提高验证准确性、加速产品上市、降低成本,以及协议合规性评估和自动测试生成等高级功能,所有这些优势都有助于可靠、高效地部署新的内存解决方案。Cadence 的 LPDDR5X VIP 内存模型3支持 DLEP 功能,允许开发人员在调试模式下访问用于存储 ECC 的额外内存单元,在读取/写入时即时回调覆盖存储位的值,以及在启用 DLEP 时检查被禁用的模式。  这种集成方法有助于充分实现 DLEP 技术的优势,为下一代解决方案提供底层支持。  DLEP 在 AI 和汽车应用中的优势  将 DLEP 集成到内存架构中,可为 AI、汽车行业以及其他需要增强的可靠性、卓越性能、数据完整性和更高能效的行业带来巨大优势。所有这些优势相结合,可延长任务关键型系统的正常使用期限。此外,这些技术进步还有助于降低成本,增大 DLEP 技术所带来的价值。  推动 DLEP 普及  Cadence 与美光的合作正在推动 DLEP 技术普及,使系统设计人员能够实现更高的带宽、更好的内存利用率、更低的功耗,同时满足严格的功能安全要求。通过将 DLEP 集成到 Cadence 的 LPDDR5/5X 控制器、PHY IP 和 VIP 中,工程师可从经过硅验证的强大解决方案中受益——这些解决方案可简化验证过程,缩短产品上市时间。随着数据密集型工作负载和安全关键型工作负载不断增加,Cadence 和美光的合作为汽车、AI 等领域带来了高效可靠的高性能内存解决方案。  1带有增强型 ECC 功能的 LPDDR5X 直面汽车行业挑战 | 美光科技。 典型内联系统 ECC 方案与 DLEP 进行对比测试的结果值  2《知识产权的发展趋势》,全球半导体联盟知识产权利益小组  3https://www.cadence.com/en_US/home/tools/system-design-and-verification/verification-ip/simulation-vip/memory-models/dram/lpddr5.html
2026-03-12 13:55 阅读量:274
美光推出全球首款高容量256GB LPDRAM SOCAMM2,为数据中心基础架构树立新标杆
  2026 年 3 月 5 日,爱达荷州博伊西市 —美光科技股份有限公司(纳斯达克股票代码:MU)近日宣布开始向客户送样业界容量领先的 LPDRAM 模块 256GB SOCAMM2,进一步巩固其在低功耗服务器内存领域的领导地位。依托业界首款单晶粒 32Gb LPDDR5X 设计,这一里程碑式成就为 AI 数据中心带来变革性突破,提供足以实现全新系统架构的低功耗内存容量。  AI 训练、推理、代理式 AI 和通用计算的融合,正推动更严苛的内存需求,并重塑数据中心的系统架构。现代 AI 工作负载催生了大模型参数、扩展的上下文窗口及持久性键值(KV)缓存的需求,而核心计算则在数据强度、并发性和内存空间方面持续扩展。  面对上述工作负载,内存容量、带宽效率、延迟和能效已成为系统层面的主要瓶颈,直接影响性能、可扩展性和总体拥有成本。LPDRAM 融合上述特性的独特优势,在功耗与散热限制日益严苛的数据中心环境中,成为 AI 及核心计算服务器的关键解决方案。美光正与 NVIDIA 携手合作,共同设计高性能内存解决方案,以满足先进 AI 基础架构的需求。  美光高级副总裁暨云端存储事业部总经理 Raj Narasimhan 表示:“美光 256GB SOCAMM2 为 AI 及高性能计算(HPC)提供更具能效的 CPU 附加内存解决方案。此次产品发布充分展现出美光在技术与封装领域的突破,打造业界容量领先、低功耗、小尺寸的模块化内存解决方案。美光在数据中心低功耗内存解决方案领域持续保持领先地位,这一独特优势使我们率先推出单晶粒 32Gb LPDRAM,协助推动业界加速采用更节能、更高容量的系统架构。”  专为容量、能效和工作负载性能优化而设计  美光的 256GB SOCAMM2 为各种 AI 和通用计算工作负载提供更高的内存容量、更低的功耗,以及更快的性能。  为 AI 服务器扩展内存容量:256GB SOCAMM2 容量较前代最高规格 192GB SOCAMM2 提升三分之一,可为每颗 8 通道 CPU 提供 2TB LPDRAM 容量,从而支持更大的上下文窗口及更复杂的推理工作负载。  功耗更低、尺寸更小:与相同容量的 RDIMM 相比,SOCAMM2 的功耗仅为其三分之一,尺寸亦缩减至三分之一,有效提升机架密度并降低总体拥有成本。1  提升推理与核心计算性能:在统一内存架构中,与现有解决方案相比,256GB SOCAMM2 用于 KV 缓存卸载时,可将长上下文、实时 LLM 推理的首个 token 生成时间加速 2.3 倍。2在独立 CPU 应用中,针对高性能计算工作负载,LPDRAM 的每瓦性能较主流内存模块提升超 3 倍。3  易维护、可扩展的模块化设计:模块化 SOCAMM2 设计可提升设备可维护性、支持液冷服务器架构,并能随着 AI 与核心计算内存需求的持续增长,实现未来容量扩充。  NVIDIA 数据中心 CPU 产品部门主管 Ian Finder 表示:“先进 AI 基础架构需要在各个层面进行极致优化,才能有效应对严苛的 AI 推理工作负载对性能与能效的需求。美光通过 256GB SOCAMM2,以低于传统服务器内存的功耗,实现超大内存容量与带宽的突破,为下一代 AI CPU 提供关键助力。”  推动行业标准制定  加速低功耗内存普及  美光在 JEDEC SOCAMM2 规范制定过程中持续发挥领导作用,并维持与系统设计人员的深度技术合作,以推动下一代数据中心平台在能效与性能方面实现全行业性提升。  美光现已面向客户送样 256GB SOCAMM2 产品,并提供业界最全面的数据中心 LPDRAM 产品组合,涵盖 8GB 至 64GB 组件及 48GB 至 256GB 的 SOCAMM2 模块。  1三分之一的功耗依据单个 128GB、128 位总线宽度 SOCAMM2 模块与两个 64GB、64 位总线宽度 DDR5 RDIMM 的功耗瓦数对比计算。三分之一的尺寸依据 SOCAMM2 的面积( 14x90 mm)与标准服务器 RDIMM 的面积之比。  2结果基于美光内部测试,使用 Llama3 70B 模型(FP16 量化)进行实时推理测试,测试配置为:上下文长度 500K,并发用户数 16。首 token 响应时延(TTFT)的预期提升,基于每 CPU 配置 2TB LPDRAM 时延 0.12 秒,对比每 CPU 配置 1.5TB LPDRAM 时延 0.28 秒测算。有关测试条件详情,请参阅本月稍早发布的白皮书:LPDDR at Scale: Enabling Efficient LLM Inference Through High-Capacity Memory。  3美光内部测试使用相同容量的 LPDDR5X 和 DDR5 进行 Pot3D 太阳物理 HPC 代码性能测评。
2026-03-06 11:37 阅读量:331
美光最新突破!
行业新闻

美光最新突破!

2026-03-05 11:49 阅读量:329
  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
TL431ACLPR Texas Instruments
RB751G-40T2R ROHM Semiconductor
BD71847AMWV-E2 ROHM Semiconductor
CDZVT2R20B ROHM Semiconductor
MC33074DR2G onsemi
型号 品牌 抢购
STM32F429IGT6 STMicroelectronics
BP3621 ROHM Semiconductor
TPS63050YFFR Texas Instruments
IPZ40N04S5L4R8ATMA1 Infineon Technologies
BU33JA2MNVX-CTL ROHM Semiconductor
ESR03EZPJ151 ROHM Semiconductor
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
相关百科
关于我们
AMEYA360微信服务号 AMEYA360微信服务号
AMEYA360商城(www.ameya360.com)上线于2011年,现 有超过3500家优质供应商,收录600万种产品型号数据,100 多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+ 连接器等多个领域,平台主营业务涵盖电子元器件现货销售、 BOM配单及提供产品配套资料等,为广大客户提供一站式购 销服务。

请输入下方图片中的验证码:

验证码