通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少尉

注册:2020-12-8148
跳转到指定楼层
1#
发表于 2026-3-4 16:01:11 |只看该作者 |倒序浏览

EETOP



美光在存储行业迎来最新突破!

3月4日,美国发布了全球第一款256GB超大容量的LPDDR5X SOCAMM2内存条,并已向客户送样。在容量与能效上均达到行业领先水平。

640?wx_fmt=jpeg&from=appmsg#imgIndex=0

随着 AI 进入 “应用层” 时代,负载规模持续扩张,存储瓶颈日益凸显。这也是 DRAM 厂商高度重视 HBM 及其他 AI 专用存储产品迭代的原因。

在美光最新公告中,该公司凭借 SOCAMM2 内存模组树立了全新标杆:单条容量一举提升至 256GB,较此前 192GB 实现巨大飞跃。美光表示,SOCAMM2 将集成于新一代 AI 基础设施,有效缓解存储容量限制。全新 SOCAMM2 聚焦通过 KV-Cache 降低瓶颈,实现更低时延负载。

NVIDIA 数据中心 CPU 产品负责人 Ian Finder 评价:

美光 256GB SOCAMM2 以低于传统服务器内存的功耗,实现了超大容量与高带宽,为下一代 AI CPU 提供了关键支撑。

借助最新一代 SOCAMM2,美光将 LPDRAM 单颗裸片容量提升至 32GB。

在 256GB 规格下,8 通道 CPU 可提供 2TB LPDRAM,让 AI 服务器轻松处理超长上下文。

美光还指出,全新 SOCAMMM2 方案使长上下文推理的 TTFT(首字时延)提升 2.3 倍,显著优化以独立 CPU 应用为核心的智能体(Agent)负载。

640?wx_fmt=png&from=appmsg#imgIndex=1

SOCAMM2 是美光与 NVIDIA 联合开发的方案。在此前报道中我们已提到,Vera Rubin 将成为首批采用这一全新内存标准的 AI 基础设施之一。

在 AI 领域,内存已成为低时延、长上下文场景下的核心资源。与此同时,SOCAMM2 也将占据相当一部分 DRAM 供应,可能会挤压 GDDR7 等通用型产品的产能分配。

美光表示,256GB 版 SOCAMM2 样片已向客户送样,并将在 2026 年 GTC 大会上正式展出。


举报本楼

本帖有 9 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2026-3-5 05:53 , Processed in 0.114165 second(s), 21 queries , Gzip On.

Copyright © 1999-2025 C114 All Rights Reserved

Discuz Licensed

回顶部