EETOP
美光在存储行业迎来最新突破!
3月4日,美国发布了全球第一款256GB超大容量的LPDDR5X SOCAMM2内存条,并已向客户送样。在容量与能效上均达到行业领先水平。
随着 AI 进入 “应用层” 时代,负载规模持续扩张,存储瓶颈日益凸显。这也是 DRAM 厂商高度重视 HBM 及其他 AI 专用存储产品迭代的原因。
在美光最新公告中,该公司凭借 SOCAMM2 内存模组树立了全新标杆:单条容量一举提升至 256GB,较此前 192GB 实现巨大飞跃。美光表示,SOCAMM2 将集成于新一代 AI 基础设施,有效缓解存储容量限制。全新 SOCAMM2 聚焦通过 KV-Cache 降低瓶颈,实现更低时延负载。
NVIDIA 数据中心 CPU 产品负责人 Ian Finder 评价:
美光 256GB SOCAMM2 以低于传统服务器内存的功耗,实现了超大容量与高带宽,为下一代 AI CPU 提供了关键支撑。
借助最新一代 SOCAMM2,美光将 LPDRAM 单颗裸片容量提升至 32GB。
在 256GB 规格下,8 通道 CPU 可提供 2TB LPDRAM,让 AI 服务器轻松处理超长上下文。
美光还指出,全新 SOCAMMM2 方案使长上下文推理的 TTFT(首字时延)提升 2.3 倍,显著优化以独立 CPU 应用为核心的智能体(Agent)负载。
SOCAMM2 是美光与 NVIDIA 联合开发的方案。在此前报道中我们已提到,Vera Rubin 将成为首批采用这一全新内存标准的 AI 基础设施之一。
在 AI 领域,内存已成为低时延、长上下文场景下的核心资源。与此同时,SOCAMM2 也将占据相当一部分 DRAM 供应,可能会挤压 GDDR7 等通用型产品的产能分配。
美光表示,256GB 版 SOCAMM2 样片已向客户送样,并将在 2026 年 GTC 大会上正式展出。
|