英伟达暂停初代SOCAMM内存项目 重构AI服务器内存市场!当HBM(高带宽内存)价格飙升至每GB 10美元,AI服务器厂商纷纷表示难以承受时,英伟达突然暂停了初代SOCAMM内存项目。该项目原计划年部署80万个模块,但经过两次搁置后,转而全力开发SOCAMM2。这不是技术失败,而是更深层次的策略:用14.3TB/s的带宽、比DDR5低三分之一的功耗,以及“非板载可更换”的灵活性,在HBM垄断的AI内存市场开辟一条“平民化”赛道。HBM负责“极限性能”,SOCAMM2负责“大规模普及”,英伟达正通过这两种内存方案重新平衡AI服务器的成本与性能。

很多人误以为SOCAMM2是HBM的廉价替代品,实际上两者关系类似于显卡的“独立显存”与“系统内存”。HBM通过3D堆叠与GPU封装,解决AI训练时“万亿参数瞬间调用”的极致性能需求,如GB300 GPU的HBM带宽可达30TB/s;而SOCAMM2则通过LPDDR5X/LPDDR6与CAMM模组的组合,解决“内存灵活扩展”问题,单模块支持最高18TB容量,且可像插U盘一样独立更换,无需拆主板。这种分工直击AI服务器的核心矛盾:当前HBM产能被三星、SK海力士垄断,预计2025年全球HBM总产能仅1.2亿GB,不足以满足10万台高端AI服务器的需求;而DDR5虽便宜,但因带宽不足(单通道最高102GB/s),在大模型推理时频繁拖慢GPU。SOCAMM2的出现正好填补了这一缺口:带宽接近HBM,成本却只有HBM的五分之一,功耗也更低。英伟达文档显示,Vera Rubin平台的CPU将优先搭载SOCAMM2,让AI服务器既能用HBM跑训练,又能用SOCAMM2扩展“数据缓存池”,实现“性能不妥协,成本可承受”。

特别声明:以上文章内容仅代表作者观点,不代表本站观点或立场。如有关于作品内容、版权或其它问题请于作品发表后与我们联系。
头条今日_全国热点资讯网(头条才是今日你关心的)








