人民币 • 跨境询价流程
返回 Blog
AI 基础设施2026/4/1

美光发布下一代 HBM4 内存,瞄准 AI 与高性能计算

美光宣布推出下一代 HBM4 内存,宣称比当前 HBM3E 带宽最高提升 50%,功耗降低 30%。对 AI 集群买家来说,这次发布意味着内存带宽扩展又迈进了一步,而这仍是训练和推理性能的关键瓶颈。

高性能计算板卡上的密集半导体走线。
图片来源: Jakub Pabis

美光这次宣布了什么

美光的新闻稿将 HBM4 定位为高带宽内存演进的下一步,强调相比 HBM3E 带宽提升 50%,功耗降低 30%。公司同时提到改进的热性能和每堆栈更高内存容量的支持。

这次发布包含了 2026 年下半年样片和 2027 年初量产的路线图。对买家来说,最直接的信号是内存带宽仍在持续演进,这对内存带宽常常制约整体性能的 AI 训练和推理系统来说很重要。

为什么内存带宽对 AI 集群依然关键

在 AI 训练集群中,内存带宽直接影响加速器与内存之间数据移动的速度。当带宽不足时,昂贵的 GPU 核心会空闲等待数据,从而降低整体系统效率。

这就是为什么基础设施买家会密切关注 HBM 带宽的每一代提升。50% 的提升可以转化为加速器投资更好的利用率,尤其是对那些受内存限制而非计算限制的工作负载。

采购层面的影响

计划在 2027 年部署 AI 基础设施的团队,应将 HBM4 的可用性纳入内存供应商评估。从 HBM3E 切换到 HBM4 会影响散热设计、电源交付和板卡布局,进而影响系统级成本和性能。

我们的判断是,最具战略眼光的买家现在就应该开始与内存供应商进行认证对话,即使量产还在一年之后。早期参与可以改善分配可见度,并对产品定义和验证时间线产生更大影响。