美光G9 NAND技术重磅发布!旗舰手机性能再攀巅峰

Release time:2025-05-07
author:AMEYA360
source:美光
reading:1151

  在快节奏的今天,手机早已不是单纯的通讯工具,随着AI技术的不断发展,智能手机正在成为人类的AI助手。这背后,都依赖大容量高速存储系统!这一趋势将进一步推动边缘设备对内存和存储的需求。

  在2025年巴塞罗那世界移动通信大会(MWC25)上,美光亮出大招:宣布正在送样业界首款基于 G9 NAND的移动UFS 4.1和UFS 3.1产品。

  G9节点是美光的新一代创新型NAND技术,旨在为旗下所有存储解决方案带来前所未有的性能和密度优势。 G9对新一代移动通用闪存(UFS)移动产品到底有多强?一文揭秘!

  G9 NAND UFS 4.1:性能直接拉满

  美光G9 NAND移动UFS 4.1解决方案可为旗舰智能手机带来业界前沿的性能和创新,从而实现更快速、更灵敏的使用体验。

  速度更快、延迟更低:

  想象一下,手机中的虚拟助手能够充分理解您的指令,您还可以使用手机快速进行实时图片编辑,并在瞬间完成语言翻译。这些都是未来基于大语言模型(LLM)的AI应用,它们将彻底改变智能手机用户的数字体验。

  最终,这些服务将融合成功能强大的多模态AI代理,为用户提供快速、全面且具备情境感知能力的数字体验。为实现这一目标,智能手机需要快速访问海量数据集、降低延迟、提高响应速度,从而实现更流畅的终端用户体验。

  凭借超过4100MBps的顺序读写速度,美光G9 NAND移动UFS 4.1正在引领这一变革趋势。与上一代G8 UFS 4.0进行比较后,我们能清楚地看到G9 UFS 4.1带来的性能飞跃。

美光G9 NAND技术重磅发布!旗舰手机性能再攀巅峰

  512GB G9 UFS 4.1与512GB G8 UFS 4.0对比

  容量更大:

  更大的存储容量是提升本地计算和处理能力的因素之一。传统的云端AI系统需要将敏感数据通过网络传输后进行处理,存在数据泄露风险。边缘AI可在本地处理生成的数据,从根本上降低了上述风险。

  美光G9 UFS 4.1支持高达1TB的NAND大容量存储,可满足设备端处理大量数据的需求,让您的智能手机轻松处理复杂的计算任务。

  封装更小更薄:

  美光G9 NAND UFS 4.1不仅提高了容量,其更小更薄的外形可支持更具时尚感的创新智能手机设计。

  美光G9 NAND UFS 4.1采用业界前沿封装技术,1TB NAND UFS的封装尺寸仅有9x13x0.85毫米大小(与上一代G8 UFS 4.0相比),可大幅节省手机内部空间,是下一代可折叠以及超薄智能手机设计的理想之选,其节约的空间可用于搭载更大容量的电池。

  专有功能优化:

  1. 数据碎片整理:

  智能手机的运行速度逐渐变慢,通常是由于数据碎片化—文件分散存储在各个地方,导致存储设备难以实现高效读取。

  美光专有的数据碎片整理功能可解决这一问题,它支持UFS设备的控制器绕过主机层,直接在NAND内部发出碎片整理命令。通过简化数据迁移过程,数据碎片整理功能可将读取速度提升高达60%(启用数据碎片整理与未启用数据碎片整理的对比),从而提升智能手机的整体性能,包括日常任务和 AI 相关任务。

  简言之,数据碎片整理功能通过在内部处理数据迁移/碎片整理,提高读取性能并降低设备的负荷,使智能手机能够更快、更高效地访问文件,实现更流畅的使用体验。

美光G9 NAND技术重磅发布!旗舰手机性能再攀巅峰

  2. 增强型WriteBooster:

  借助美光的增强型WriteBooster功能,智能手机处理器可将常用数据“固定”在存储设备内部名为“WriteBooster”的指定区域内。

  利用该功能,处理器可以更轻松地将重要数据从存储设备动态加载到内存,确保处理过程更加高效,不会面临内存容量不足问题。

  内部测试数据表明,启用此功能后,随机读取速度可提高多达30%(启用增强型WriteBooster与未启用增强型WriteBooster的对比)。

  增强型WriteBooster功能可加速智能手机的应用启动速度、文件传输速度,让用户操作更加流畅。当用户需要同时使用日常应用和 AI 应用时,此功能尤为有用。

  在这种使用场景下,可利用增强型WriteBooster功能为AI模型的数据创建内存映射,从而实现更快的数据交换和读取。

美光G9 NAND技术重磅发布!旗舰手机性能再攀巅峰

  未固定的数据将从缓存缓冲区移至普通存储区域

  3. 智能延迟跟踪器(ILT):

  美光的智能延迟跟踪器可监控系统和存储设备上的I/O存储延迟,以检测和分析影响智能手机性能的异常延迟,例如应用启动缓慢等。通过识别这些延迟问题,跟踪器可帮助智能手机OEM厂商优化系统,提升整体用户体验。

  此功能可确保智能手机能够高速流畅地运行各种AI应用和日常任务,例如打开相机、在相册中查找之前度假时拍摄的照片等。

  4. UFS分区(ZUFS):

  想象一下,当您在旅行前收拾行李时,您的行李箱被整齐地划分为三个部分,分别用于放置袜子、衬衫和裤子,通过这种方式,您可以更快地找到所需物品。

  美光的UFS分区(ZUFS)功能以类似方式组织智能手机内的数据。ZUFS将具有相似I/O特性的数据集中存放到UFS设备内的特定区域中,能够尽可能减少数据搜索时间,从而提高读/写效率。

  这种简化的数据检索方式可确保系统响应更快、更流畅,就像在行李箱中取出预先放好的袜子一样。

  传统数据放置方式与分区数据放置方式的对比

  智能加速:面向未来的创新

  美光移动业务部门专注于提供先进的NAND闪存解决方案,并提供针对旗舰智能手机设计的定制功能。

  这些创新旨在加速边缘设备上的AI应用。通过与客户及生态系统伙伴合作,美光正在调整其产品和技术路线图,以便与AI及边缘计算的未来趋势保持一致。

  这种合作可确保未来的移动设备能够处理日益复杂的AI任务,以及数据密集型应用。G9 NAND以及众多新的固件功能正是美光致力于创新的例证。


("Note: The information presented in this article is gathered from the internet and is provided as a reference for educational purposes. It does not signify the endorsement or standpoint of our website. If you find any content that violates copyright or intellectual property rights, please inform us for prompt removal.")

Online messageinquiry

reading
美光宣布:HBM4已批量出货!
  2026年3月16日,美国存储芯片大美光科技正式宣布,其已于2026年第一季度开始批量出货HBM4 36GB 12H内存,该产品专为英伟达(NVIDIA)Vera Rubin平台设计。凭借HBM4,美光实现了超过11 Gb/s的引脚速度,带宽超过2.8 TB/s,相比其HBM3E,带宽提升了2.3倍,能效提升超过20%。  为了进一步提升HBM的容量,美光展示了其先进的封装技术,可将16颗HBM芯片堆叠在一起,并已向客户交付了HBM4 48GB 16H的样品。与HBM4 36GB 12H产品相比,这一里程碑式的改进使每颗HBM芯片的容量提升了33% 。  “下一代人工智能将由整个生态系统通过联合工程创新开发的紧密集成平台定义。我们与英伟达的紧密合作确保了计算和内存从一开始就能协同扩展,”美光科技执行副总裁兼首席商务官 Sumit Sadana 表示。“这一切的核心是美光的 HBM4,它是人工智能的引擎,可提供前所未有的带宽、容量和能效。随着 HBM4 36GB 12H 的推出,以及业界首款 SOCAMM2 和第六代 SSD 的量产,美光的内存和存储构成了释放下一代人工智能全部潜力的核心基础。”  美光SOCAMM2 专为英伟达 Vera Rubin NVL72 系统和独立Vera CPU平台而设计,每个 CPU 可实现高达 2TB 的内存和 1.2 TB/s 的带宽。  美光是首家量产 PCIe Gen6 数据中心级 SSD 的公司。美光 9650 针对能效和液冷环境进行了优化,采用英伟达BlueField-4 STX 参考架构,可为 AI 训练和推理工作负载提供高速、低延迟的数据访问,支持高达 28 GB/s 的顺序读取吞吐量和 550 万随机读取 IOPS。美光 7600 和 9550 SSD 为客户提供 PCIe Gen5 SSD,从而扩展了他们的架构设计选择。
2026-03-19 09:48 reading:224
美光与Cadence Design Systems合作,加速DLEP验证和合规进程
  半导体生态系统是一个高度复杂、互相关联的框架,其中包括各种行业、技术和机构,旨在促进半导体器件的设计、制造、分销和应用。设计和知识产权 (IP) 提供商是该框架的组成部分,在经历了各种大幅演变之后,这些提供商已成为当代芯片开发中不可或缺的参与者。  随着上世纪 80 年代电子设计自动化 (EDA) 工具的出现,以及上世纪 90 年代半导体 IP 产业的发展,片上系统 (SoC) 设计越来越依赖于可复用的 IP 模块。目前,在 SoC 所包含的器件中,超过 80% 为可复用 IP,典型的芯片会集成 200 多个 IP 模块。1  在半导体市场引入新技术,是一个相当复杂的过程。其中生态系统伙伴(包括 IP 提供商和验证 IP (VIP) 软件供应商)对新技术的支持程度往往起着决定性作用——可能会阻碍新技术的普及,也可能加速商业上的成功。  美光与 Cadence Design Systems 之间的战略合作,标志着内存技术进步旅程中的重大里程碑。此次合作的重点是将直接链路 ECC 协议 (DLEP) 功能嵌入 Cadence 最新的 LPDDR5/5X 内存控制器 IP、物理层 (PHY) IP 和验证 IP (VIP) 中,从而显著提高人工智能、汽车和数据中心应用中的系统性能。  DLEP 在内存技术中的重要性  DLEP 是一项重大创新,旨在解决传统内联纠错码 (ECC) 技术的固有局限性。对于现代车辆中的高性能 AI 应用和高可靠性高级驾驶辅助系统 (ADAS) 应用而言,该技术尤为重要。DLEP 的核心优势在于其能够回收较大比例的有效负载内存空间和带宽,否则这些空间和带宽将被分配给内联 ECC 使用。这种回收能力,是 DLEP 能够提高系统性能和资源效率的基础。美光与 Cadence 携手合作,充分实现了这些增强功能。  DLEP 是一项重大创新,旨在解决传统内联 ECC 技术存在的局限性。DLEP 所实现的改进对于需要高可靠性和极高性能的应用至关重要,例如汽车行业中的 AI 加速器和 ADAS。使用标准 DRAM 与使用支持 DLEP 的 DRAM 进行 ECC 数据传输的对比  DLEP 的主要优势之一是它能够回收相当大比例的有效负载内存空间、至少 6% 的额外可寻址内存空间和带宽,可将带宽增加 15% 至 25%。如果没有 DLEP,这些空间和带宽将被用于内联 ECC 纠错。这种回收能力可带来系统性能和效率的提高,从内存管理的角度来看,功耗(pJ/b,皮焦耳/位)可降低约 10%。2 美光与 Cadence 之间的合作确保了这些优势的充分发挥。  从图中可以看出,与内联 ECC 相比,DLEP 的带宽要增加 15% 至 25%  通过战略合作确保集成和验证  美光的高级 DLEP 功能已无缝集成到 Cadence 的 LPDDR5/5X IP 组合和 VIP 工具套件中。这种集成旨在优化复杂 SoC 设计的验证过程,从而能够在各种应用中高效部署 DLEP 技术。VIP 解决方案对于验证新兴内存技术的运行和效率起到重要作用。美光与 Cadence 建立了稳固的合作关系,以确保 DLEP 的快速普及,从而为内存技术确立新的标准。  Cadence 的 VIP 工具集提供了一些至关重要的优势,例如对复杂 SoC 架构进行彻底验证、提高验证准确性、加速产品上市、降低成本,以及协议合规性评估和自动测试生成等高级功能,所有这些优势都有助于可靠、高效地部署新的内存解决方案。Cadence 的 LPDDR5X VIP 内存模型3支持 DLEP 功能,允许开发人员在调试模式下访问用于存储 ECC 的额外内存单元,在读取/写入时即时回调覆盖存储位的值,以及在启用 DLEP 时检查被禁用的模式。  这种集成方法有助于充分实现 DLEP 技术的优势,为下一代解决方案提供底层支持。  DLEP 在 AI 和汽车应用中的优势  将 DLEP 集成到内存架构中,可为 AI、汽车行业以及其他需要增强的可靠性、卓越性能、数据完整性和更高能效的行业带来巨大优势。所有这些优势相结合,可延长任务关键型系统的正常使用期限。此外,这些技术进步还有助于降低成本,增大 DLEP 技术所带来的价值。  推动 DLEP 普及  Cadence 与美光的合作正在推动 DLEP 技术普及,使系统设计人员能够实现更高的带宽、更好的内存利用率、更低的功耗,同时满足严格的功能安全要求。通过将 DLEP 集成到 Cadence 的 LPDDR5/5X 控制器、PHY IP 和 VIP 中,工程师可从经过硅验证的强大解决方案中受益——这些解决方案可简化验证过程,缩短产品上市时间。随着数据密集型工作负载和安全关键型工作负载不断增加,Cadence 和美光的合作为汽车、AI 等领域带来了高效可靠的高性能内存解决方案。  1带有增强型 ECC 功能的 LPDDR5X 直面汽车行业挑战 | 美光科技。 典型内联系统 ECC 方案与 DLEP 进行对比测试的结果值  2《知识产权的发展趋势》,全球半导体联盟知识产权利益小组  3https://www.cadence.com/en_US/home/tools/system-design-and-verification/verification-ip/simulation-vip/memory-models/dram/lpddr5.html
2026-03-12 13:55 reading:275
美光推出全球首款高容量256GB LPDRAM SOCAMM2,为数据中心基础架构树立新标杆
  2026 年 3 月 5 日,爱达荷州博伊西市 —美光科技股份有限公司(纳斯达克股票代码:MU)近日宣布开始向客户送样业界容量领先的 LPDRAM 模块 256GB SOCAMM2,进一步巩固其在低功耗服务器内存领域的领导地位。依托业界首款单晶粒 32Gb LPDDR5X 设计,这一里程碑式成就为 AI 数据中心带来变革性突破,提供足以实现全新系统架构的低功耗内存容量。  AI 训练、推理、代理式 AI 和通用计算的融合,正推动更严苛的内存需求,并重塑数据中心的系统架构。现代 AI 工作负载催生了大模型参数、扩展的上下文窗口及持久性键值(KV)缓存的需求,而核心计算则在数据强度、并发性和内存空间方面持续扩展。  面对上述工作负载,内存容量、带宽效率、延迟和能效已成为系统层面的主要瓶颈,直接影响性能、可扩展性和总体拥有成本。LPDRAM 融合上述特性的独特优势,在功耗与散热限制日益严苛的数据中心环境中,成为 AI 及核心计算服务器的关键解决方案。美光正与 NVIDIA 携手合作,共同设计高性能内存解决方案,以满足先进 AI 基础架构的需求。  美光高级副总裁暨云端存储事业部总经理 Raj Narasimhan 表示:“美光 256GB SOCAMM2 为 AI 及高性能计算(HPC)提供更具能效的 CPU 附加内存解决方案。此次产品发布充分展现出美光在技术与封装领域的突破,打造业界容量领先、低功耗、小尺寸的模块化内存解决方案。美光在数据中心低功耗内存解决方案领域持续保持领先地位,这一独特优势使我们率先推出单晶粒 32Gb LPDRAM,协助推动业界加速采用更节能、更高容量的系统架构。”  专为容量、能效和工作负载性能优化而设计  美光的 256GB SOCAMM2 为各种 AI 和通用计算工作负载提供更高的内存容量、更低的功耗,以及更快的性能。  为 AI 服务器扩展内存容量:256GB SOCAMM2 容量较前代最高规格 192GB SOCAMM2 提升三分之一,可为每颗 8 通道 CPU 提供 2TB LPDRAM 容量,从而支持更大的上下文窗口及更复杂的推理工作负载。  功耗更低、尺寸更小:与相同容量的 RDIMM 相比,SOCAMM2 的功耗仅为其三分之一,尺寸亦缩减至三分之一,有效提升机架密度并降低总体拥有成本。1  提升推理与核心计算性能:在统一内存架构中,与现有解决方案相比,256GB SOCAMM2 用于 KV 缓存卸载时,可将长上下文、实时 LLM 推理的首个 token 生成时间加速 2.3 倍。2在独立 CPU 应用中,针对高性能计算工作负载,LPDRAM 的每瓦性能较主流内存模块提升超 3 倍。3  易维护、可扩展的模块化设计:模块化 SOCAMM2 设计可提升设备可维护性、支持液冷服务器架构,并能随着 AI 与核心计算内存需求的持续增长,实现未来容量扩充。  NVIDIA 数据中心 CPU 产品部门主管 Ian Finder 表示:“先进 AI 基础架构需要在各个层面进行极致优化,才能有效应对严苛的 AI 推理工作负载对性能与能效的需求。美光通过 256GB SOCAMM2,以低于传统服务器内存的功耗,实现超大内存容量与带宽的突破,为下一代 AI CPU 提供关键助力。”  推动行业标准制定  加速低功耗内存普及  美光在 JEDEC SOCAMM2 规范制定过程中持续发挥领导作用,并维持与系统设计人员的深度技术合作,以推动下一代数据中心平台在能效与性能方面实现全行业性提升。  美光现已面向客户送样 256GB SOCAMM2 产品,并提供业界最全面的数据中心 LPDRAM 产品组合,涵盖 8GB 至 64GB 组件及 48GB 至 256GB 的 SOCAMM2 模块。  1三分之一的功耗依据单个 128GB、128 位总线宽度 SOCAMM2 模块与两个 64GB、64 位总线宽度 DDR5 RDIMM 的功耗瓦数对比计算。三分之一的尺寸依据 SOCAMM2 的面积( 14x90 mm)与标准服务器 RDIMM 的面积之比。  2结果基于美光内部测试,使用 Llama3 70B 模型(FP16 量化)进行实时推理测试,测试配置为:上下文长度 500K,并发用户数 16。首 token 响应时延(TTFT)的预期提升,基于每 CPU 配置 2TB LPDRAM 时延 0.12 秒,对比每 CPU 配置 1.5TB LPDRAM 时延 0.28 秒测算。有关测试条件详情,请参阅本月稍早发布的白皮书:LPDDR at Scale: Enabling Efficient LLM Inference Through High-Capacity Memory。  3美光内部测试使用相同容量的 LPDDR5X 和 DDR5 进行 Pot3D 太阳物理 HPC 代码性能测评。
2026-03-06 11:37 reading:331
美光最新突破!
行业新闻

美光最新突破!

2026-03-05 11:49 reading:329
  • Week of hot material
  • Material in short supply seckilling
model brand Quote
BD71847AMWV-E2 ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
CDZVT2R20B ROHM Semiconductor
MC33074DR2G onsemi
TL431ACLPR Texas Instruments
model brand To snap up
STM32F429IGT6 STMicroelectronics
TPS63050YFFR Texas Instruments
ESR03EZPJ151 ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
BP3621 ROHM Semiconductor
BU33JA2MNVX-CTL ROHM Semiconductor
Hot labels
ROHM
IC
Averlogic
Intel
Samsung
IoT
AI
Sensor
Chip
About us

Qr code of ameya360 official account

Identify TWO-DIMENSIONAL code, you can pay attention to

AMEYA360 weixin Service Account AMEYA360 weixin Service Account
AMEYA360 mall (www.ameya360.com) was launched in 2011. Now there are more than 3,500 high-quality suppliers, including 6 million product model data, and more than 1 million component stocks for purchase. Products cover MCU+ memory + power chip +IGBT+MOS tube + op amp + RF Bluetooth + sensor + resistor capacitance inductor + connector and other fields. main business of platform covers spot sales of electronic components, BOM distribution and product supporting materials, providing one-stop purchasing and sales services for our customers.

Please enter the verification code in the image below:

verification code