美光砸1亿美元投资AI新创公司

Release time:2018-10-18
author:
source:EE Times
reading:2010

美光科技(Micron Technology)在日前于旧金山举办的Micron Insight 2018大会上宣布,该公司将透过美光创投(Micron Ventures),针对人工智慧(AI)投入1亿美元的创投基金;该公司执行长Sanjay Mehrotra并誓言将加速推出新产品。美光的股价在消息发布后的交易日即开始上涨。


除了美光科技,Micron Insight 2018大会还邀请来自亚马逊(Amazon)、Google、辉达(Nvidia)和微软(Microsoft)等公司高层和业界专家共同讨论AI、机器学习和深度学习的未来,以及储存技术在其中将扮演的角色。


对于美光科技这家记忆体和储存巨擘来说,现在正值充满挑战的时期,因为他们已在储存领域落后于三星(Samsung)、海力士(SK Hynix)和东芝(Toshiba)等竞争对手。其混合记忆体立方体(Hybrid Memory Cube;HMC)和Automata处理器等突破性产品,未能取得明显的成长动能,再加上与英特尔(Intel)共同设计的3DXPoint记忆体延迟,而使得美光的收益被推迟至2020年。


从积极面来看,该公司希望在明年稍晚出样3DXPoint元件。美光还将切入高频宽记忆体(HBM)堆叠市场,最早将于2019年推出HBM2。


在其核心业务中,美光目前正在研发类似DRAM的产品,其目标是在2021年出样。该公司的制程技术蓝图中包括三种新的节点正投入生产。此外,它还向客户展示了一种能将NAND储存性能提高3倍至5倍的软体。


美光科技的高层认为,深度学习的崛起将有助于推动对于记忆体和储存的需求。这笔1亿美元的创投基金将有助于美光科技利用AI趋势扩展该公司涉及的DRAM、NAND和NOR Flash记忆体等应用领域,其目标在于藉由投资于AI的硬体、软体和服务,从而推动该公司的成长,特别是在该公司看好的自动驾驶、AR/VR以及工厂自动化等技术领域。


美光科技执行副总裁兼商务长Sumit Sadana说:「这不仅仅与钱有关,更重要的是技术合作伙伴关系。我们还有一些新兴的记忆体技术尚未投产,未来将寻求合作伙伴协助推向市场。」


美光的研究人员正在研究像Mythic和Syntiant等新创公司期望开创的各种记忆体处理器(processor-in-memory;PIM)架构。他们也看好所谓的神经形态晶片——采用BrainChip等公司追逐中的类似突触般核心之网状网路。


至于美光科技计划何时或如何将这种概念转变成产品,目前还不得而知。


Sadana说:「我们在记忆体和未来架构方面有许多创新工作,其中一些专注于深度学习。我们取得了美国政府的补助款,将用于研究记忆处理和深度学习加速的先进技术,但这方面的很多工作都极其敏感和机密。」


亚马逊和微软的发言人都指出,机器学习仍处于早期阶段。


例如,亚马逊Alexa与自然语言理解副总裁Prem Natarajan说,开发人员正致力于使亚马逊的Alexa能够理解情境脉络以及句子中的多个指令。微软AI与研究副总裁程莉莉(Lili Cheng)表示,微软最近发布了一项服务,让公司能创造自己的语音助理,目标在于使其有朝一日能够进行实际对话。


看好3DXPoint与制程技术

美光高层仍然看好其核心DRAM发展蓝图,以及3DXPoint在主记忆体和储存方面的前景。


该公司期望将3DXPoint用于密集、快速的记忆体产品和储存中,实现较英特尔现有Optane记忆体更低的延迟。美光计划将于2019年晚期出样以期于2020年带来收益,并表示该公司正在等待与英特尔共同开发的第二代3DXPoint元件。


不过,该公司高层并未透露任何产品细节或市场预测。美光运算与网路业务部门副总裁Tom Eby说:「我们的信念是[3DXPoint]成为资料中心分层结构中一个有意义的部份,它将蚕食DRAM和NAND两大市场,但整体市场的成长将会相当大。」


美光科技非挥发记忆体工程部门资深副总裁Jeff VerHeul说:「相较于DRAM和NAND,3DXPoint仍于发展早期,未来将会发展得更有效率。」


在其核心DRAM领域,「我们看到比起我们现正开发中的技术节点至少超越了三代......我们也比过去十年来的能见度更高。」美光技术开发执行副总裁Scott DeBoer说:「每个节点的成本降低和位元密度增加正逐步放缓,而且并未达到过去20年的发展脚步。」


美光的DRAM开发蓝图并不需要极紫外光(EUV)微影,而且也已经采用双重曝光和四重曝光了。DeBoer补充说,先进的电路设计使其能在更高电容器储存比过去更少电荷的方式运作,但总体架构则是传统的。


Eby表示,美光已经开始生产采用20nm以下10x制程制造的DRAM,预计下一季将首次在其1y制程中获得收入。从今天的主流8-Gbit设计转向16-Gbit晶片的时代接近了,但他并未讨论32Gbit设计的可行性。

("Note: The information presented in this article is gathered from the internet and is provided as a reference for educational purposes. It does not signify the endorsement or standpoint of our website. If you find any content that violates copyright or intellectual property rights, please inform us for prompt removal.")

Online messageinquiry

reading
美光宣布:HBM4已批量出货!
  2026年3月16日,美国存储芯片大美光科技正式宣布,其已于2026年第一季度开始批量出货HBM4 36GB 12H内存,该产品专为英伟达(NVIDIA)Vera Rubin平台设计。凭借HBM4,美光实现了超过11 Gb/s的引脚速度,带宽超过2.8 TB/s,相比其HBM3E,带宽提升了2.3倍,能效提升超过20%。  为了进一步提升HBM的容量,美光展示了其先进的封装技术,可将16颗HBM芯片堆叠在一起,并已向客户交付了HBM4 48GB 16H的样品。与HBM4 36GB 12H产品相比,这一里程碑式的改进使每颗HBM芯片的容量提升了33% 。  “下一代人工智能将由整个生态系统通过联合工程创新开发的紧密集成平台定义。我们与英伟达的紧密合作确保了计算和内存从一开始就能协同扩展,”美光科技执行副总裁兼首席商务官 Sumit Sadana 表示。“这一切的核心是美光的 HBM4,它是人工智能的引擎,可提供前所未有的带宽、容量和能效。随着 HBM4 36GB 12H 的推出,以及业界首款 SOCAMM2 和第六代 SSD 的量产,美光的内存和存储构成了释放下一代人工智能全部潜力的核心基础。”  美光SOCAMM2 专为英伟达 Vera Rubin NVL72 系统和独立Vera CPU平台而设计,每个 CPU 可实现高达 2TB 的内存和 1.2 TB/s 的带宽。  美光是首家量产 PCIe Gen6 数据中心级 SSD 的公司。美光 9650 针对能效和液冷环境进行了优化,采用英伟达BlueField-4 STX 参考架构,可为 AI 训练和推理工作负载提供高速、低延迟的数据访问,支持高达 28 GB/s 的顺序读取吞吐量和 550 万随机读取 IOPS。美光 7600 和 9550 SSD 为客户提供 PCIe Gen5 SSD,从而扩展了他们的架构设计选择。
2026-03-19 09:48 reading:226
美光与Cadence Design Systems合作,加速DLEP验证和合规进程
  半导体生态系统是一个高度复杂、互相关联的框架,其中包括各种行业、技术和机构,旨在促进半导体器件的设计、制造、分销和应用。设计和知识产权 (IP) 提供商是该框架的组成部分,在经历了各种大幅演变之后,这些提供商已成为当代芯片开发中不可或缺的参与者。  随着上世纪 80 年代电子设计自动化 (EDA) 工具的出现,以及上世纪 90 年代半导体 IP 产业的发展,片上系统 (SoC) 设计越来越依赖于可复用的 IP 模块。目前,在 SoC 所包含的器件中,超过 80% 为可复用 IP,典型的芯片会集成 200 多个 IP 模块。1  在半导体市场引入新技术,是一个相当复杂的过程。其中生态系统伙伴(包括 IP 提供商和验证 IP (VIP) 软件供应商)对新技术的支持程度往往起着决定性作用——可能会阻碍新技术的普及,也可能加速商业上的成功。  美光与 Cadence Design Systems 之间的战略合作,标志着内存技术进步旅程中的重大里程碑。此次合作的重点是将直接链路 ECC 协议 (DLEP) 功能嵌入 Cadence 最新的 LPDDR5/5X 内存控制器 IP、物理层 (PHY) IP 和验证 IP (VIP) 中,从而显著提高人工智能、汽车和数据中心应用中的系统性能。  DLEP 在内存技术中的重要性  DLEP 是一项重大创新,旨在解决传统内联纠错码 (ECC) 技术的固有局限性。对于现代车辆中的高性能 AI 应用和高可靠性高级驾驶辅助系统 (ADAS) 应用而言,该技术尤为重要。DLEP 的核心优势在于其能够回收较大比例的有效负载内存空间和带宽,否则这些空间和带宽将被分配给内联 ECC 使用。这种回收能力,是 DLEP 能够提高系统性能和资源效率的基础。美光与 Cadence 携手合作,充分实现了这些增强功能。  DLEP 是一项重大创新,旨在解决传统内联 ECC 技术存在的局限性。DLEP 所实现的改进对于需要高可靠性和极高性能的应用至关重要,例如汽车行业中的 AI 加速器和 ADAS。使用标准 DRAM 与使用支持 DLEP 的 DRAM 进行 ECC 数据传输的对比  DLEP 的主要优势之一是它能够回收相当大比例的有效负载内存空间、至少 6% 的额外可寻址内存空间和带宽,可将带宽增加 15% 至 25%。如果没有 DLEP,这些空间和带宽将被用于内联 ECC 纠错。这种回收能力可带来系统性能和效率的提高,从内存管理的角度来看,功耗(pJ/b,皮焦耳/位)可降低约 10%。2 美光与 Cadence 之间的合作确保了这些优势的充分发挥。  从图中可以看出,与内联 ECC 相比,DLEP 的带宽要增加 15% 至 25%  通过战略合作确保集成和验证  美光的高级 DLEP 功能已无缝集成到 Cadence 的 LPDDR5/5X IP 组合和 VIP 工具套件中。这种集成旨在优化复杂 SoC 设计的验证过程,从而能够在各种应用中高效部署 DLEP 技术。VIP 解决方案对于验证新兴内存技术的运行和效率起到重要作用。美光与 Cadence 建立了稳固的合作关系,以确保 DLEP 的快速普及,从而为内存技术确立新的标准。  Cadence 的 VIP 工具集提供了一些至关重要的优势,例如对复杂 SoC 架构进行彻底验证、提高验证准确性、加速产品上市、降低成本,以及协议合规性评估和自动测试生成等高级功能,所有这些优势都有助于可靠、高效地部署新的内存解决方案。Cadence 的 LPDDR5X VIP 内存模型3支持 DLEP 功能,允许开发人员在调试模式下访问用于存储 ECC 的额外内存单元,在读取/写入时即时回调覆盖存储位的值,以及在启用 DLEP 时检查被禁用的模式。  这种集成方法有助于充分实现 DLEP 技术的优势,为下一代解决方案提供底层支持。  DLEP 在 AI 和汽车应用中的优势  将 DLEP 集成到内存架构中,可为 AI、汽车行业以及其他需要增强的可靠性、卓越性能、数据完整性和更高能效的行业带来巨大优势。所有这些优势相结合,可延长任务关键型系统的正常使用期限。此外,这些技术进步还有助于降低成本,增大 DLEP 技术所带来的价值。  推动 DLEP 普及  Cadence 与美光的合作正在推动 DLEP 技术普及,使系统设计人员能够实现更高的带宽、更好的内存利用率、更低的功耗,同时满足严格的功能安全要求。通过将 DLEP 集成到 Cadence 的 LPDDR5/5X 控制器、PHY IP 和 VIP 中,工程师可从经过硅验证的强大解决方案中受益——这些解决方案可简化验证过程,缩短产品上市时间。随着数据密集型工作负载和安全关键型工作负载不断增加,Cadence 和美光的合作为汽车、AI 等领域带来了高效可靠的高性能内存解决方案。  1带有增强型 ECC 功能的 LPDDR5X 直面汽车行业挑战 | 美光科技。 典型内联系统 ECC 方案与 DLEP 进行对比测试的结果值  2《知识产权的发展趋势》,全球半导体联盟知识产权利益小组  3https://www.cadence.com/en_US/home/tools/system-design-and-verification/verification-ip/simulation-vip/memory-models/dram/lpddr5.html
2026-03-12 13:55 reading:275
美光推出全球首款高容量256GB LPDRAM SOCAMM2,为数据中心基础架构树立新标杆
  2026 年 3 月 5 日,爱达荷州博伊西市 —美光科技股份有限公司(纳斯达克股票代码:MU)近日宣布开始向客户送样业界容量领先的 LPDRAM 模块 256GB SOCAMM2,进一步巩固其在低功耗服务器内存领域的领导地位。依托业界首款单晶粒 32Gb LPDDR5X 设计,这一里程碑式成就为 AI 数据中心带来变革性突破,提供足以实现全新系统架构的低功耗内存容量。  AI 训练、推理、代理式 AI 和通用计算的融合,正推动更严苛的内存需求,并重塑数据中心的系统架构。现代 AI 工作负载催生了大模型参数、扩展的上下文窗口及持久性键值(KV)缓存的需求,而核心计算则在数据强度、并发性和内存空间方面持续扩展。  面对上述工作负载,内存容量、带宽效率、延迟和能效已成为系统层面的主要瓶颈,直接影响性能、可扩展性和总体拥有成本。LPDRAM 融合上述特性的独特优势,在功耗与散热限制日益严苛的数据中心环境中,成为 AI 及核心计算服务器的关键解决方案。美光正与 NVIDIA 携手合作,共同设计高性能内存解决方案,以满足先进 AI 基础架构的需求。  美光高级副总裁暨云端存储事业部总经理 Raj Narasimhan 表示:“美光 256GB SOCAMM2 为 AI 及高性能计算(HPC)提供更具能效的 CPU 附加内存解决方案。此次产品发布充分展现出美光在技术与封装领域的突破,打造业界容量领先、低功耗、小尺寸的模块化内存解决方案。美光在数据中心低功耗内存解决方案领域持续保持领先地位,这一独特优势使我们率先推出单晶粒 32Gb LPDRAM,协助推动业界加速采用更节能、更高容量的系统架构。”  专为容量、能效和工作负载性能优化而设计  美光的 256GB SOCAMM2 为各种 AI 和通用计算工作负载提供更高的内存容量、更低的功耗,以及更快的性能。  为 AI 服务器扩展内存容量:256GB SOCAMM2 容量较前代最高规格 192GB SOCAMM2 提升三分之一,可为每颗 8 通道 CPU 提供 2TB LPDRAM 容量,从而支持更大的上下文窗口及更复杂的推理工作负载。  功耗更低、尺寸更小:与相同容量的 RDIMM 相比,SOCAMM2 的功耗仅为其三分之一,尺寸亦缩减至三分之一,有效提升机架密度并降低总体拥有成本。1  提升推理与核心计算性能:在统一内存架构中,与现有解决方案相比,256GB SOCAMM2 用于 KV 缓存卸载时,可将长上下文、实时 LLM 推理的首个 token 生成时间加速 2.3 倍。2在独立 CPU 应用中,针对高性能计算工作负载,LPDRAM 的每瓦性能较主流内存模块提升超 3 倍。3  易维护、可扩展的模块化设计:模块化 SOCAMM2 设计可提升设备可维护性、支持液冷服务器架构,并能随着 AI 与核心计算内存需求的持续增长,实现未来容量扩充。  NVIDIA 数据中心 CPU 产品部门主管 Ian Finder 表示:“先进 AI 基础架构需要在各个层面进行极致优化,才能有效应对严苛的 AI 推理工作负载对性能与能效的需求。美光通过 256GB SOCAMM2,以低于传统服务器内存的功耗,实现超大内存容量与带宽的突破,为下一代 AI CPU 提供关键助力。”  推动行业标准制定  加速低功耗内存普及  美光在 JEDEC SOCAMM2 规范制定过程中持续发挥领导作用,并维持与系统设计人员的深度技术合作,以推动下一代数据中心平台在能效与性能方面实现全行业性提升。  美光现已面向客户送样 256GB SOCAMM2 产品,并提供业界最全面的数据中心 LPDRAM 产品组合,涵盖 8GB 至 64GB 组件及 48GB 至 256GB 的 SOCAMM2 模块。  1三分之一的功耗依据单个 128GB、128 位总线宽度 SOCAMM2 模块与两个 64GB、64 位总线宽度 DDR5 RDIMM 的功耗瓦数对比计算。三分之一的尺寸依据 SOCAMM2 的面积( 14x90 mm)与标准服务器 RDIMM 的面积之比。  2结果基于美光内部测试,使用 Llama3 70B 模型(FP16 量化)进行实时推理测试,测试配置为:上下文长度 500K,并发用户数 16。首 token 响应时延(TTFT)的预期提升,基于每 CPU 配置 2TB LPDRAM 时延 0.12 秒,对比每 CPU 配置 1.5TB LPDRAM 时延 0.28 秒测算。有关测试条件详情,请参阅本月稍早发布的白皮书:LPDDR at Scale: Enabling Efficient LLM Inference Through High-Capacity Memory。  3美光内部测试使用相同容量的 LPDDR5X 和 DDR5 进行 Pot3D 太阳物理 HPC 代码性能测评。
2026-03-06 11:37 reading:332
美光最新突破!
行业新闻

美光最新突破!

2026-03-05 11:49 reading:329
  • Week of hot material
  • Material in short supply seckilling
model brand Quote
CDZVT2R20B ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
MC33074DR2G onsemi
TL431ACLPR Texas Instruments
BD71847AMWV-E2 ROHM Semiconductor
model brand To snap up
STM32F429IGT6 STMicroelectronics
BU33JA2MNVX-CTL ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
ESR03EZPJ151 ROHM Semiconductor
BP3621 ROHM Semiconductor
TPS63050YFFR Texas Instruments
Hot labels
ROHM
IC
Averlogic
Intel
Samsung
IoT
AI
Sensor
Chip
About us

Qr code of ameya360 official account

Identify TWO-DIMENSIONAL code, you can pay attention to

AMEYA360 weixin Service Account AMEYA360 weixin Service Account
AMEYA360 mall (www.ameya360.com) was launched in 2011. Now there are more than 3,500 high-quality suppliers, including 6 million product model data, and more than 1 million component stocks for purchase. Products cover MCU+ memory + power chip +IGBT+MOS tube + op amp + RF Bluetooth + sensor + resistor capacitance inductor + connector and other fields. main business of platform covers spot sales of electronic components, BOM distribution and product supporting materials, providing one-stop purchasing and sales services for our customers.

Please enter the verification code in the image below:

verification code