美光发布下一代 HBM4 内存,瞄准 AI 与高性能计算
美光宣布推出下一代 HBM4 内存,宣称比当前 HBM3E 带宽最高提升 50%,功耗降低 30%。对 AI 集群买家来说,这次发布意味着内存带宽扩展又迈进了一步,而这仍是训练和推理性能的关键瓶颈。
原文日期
2026/3/31
阅读时长
5 分钟
美光这次宣布了什么
美光的新闻稿将 HBM4 定位为高带宽内存演进的下一步,强调相比 HBM3E 带宽提升 50%,功耗降低 30%。公司同时提到改进的热性能和每堆栈更高内存容量的支持。
这次发布包含了 2026 年下半年样片和 2027 年初量产的路线图。对买家来说,最直接的信号是内存带宽仍在持续演进,这对内存带宽常常制约整体性能的 AI 训练和推理系统来说很重要。
为什么内存带宽对 AI 集群依然关键
在 AI 训练集群中,内存带宽直接影响加速器与内存之间数据移动的速度。当带宽不足时,昂贵的 GPU 核心会空闲等待数据,从而降低整体系统效率。
这就是为什么基础设施买家会密切关注 HBM 带宽的每一代提升。50% 的提升可以转化为加速器投资更好的利用率,尤其是对那些受内存限制而非计算限制的工作负载。
采购层面的影响
计划在 2027 年部署 AI 基础设施的团队,应将 HBM4 的可用性纳入内存供应商评估。从 HBM3E 切换到 HBM4 会影响散热设计、电源交付和板卡布局,进而影响系统级成本和性能。
我们的判断是,最具战略眼光的买家现在就应该开始与内存供应商进行认证对话,即使量产还在一年之后。早期参与可以改善分配可见度,并对产品定义和验证时间线产生更大影响。
相关文章
AMD 发布 Instinct MI400 加速器,瞄准高密度 AI 训练负载
AMD 宣布推出 Instinct MI400 加速器,宣称每瓦性能比上一代最高提升 2.5 倍。对数据中心买家来说,这次发布为高端 AI 加速器市场新增了一个可信选项,尤其适合那些功耗效率和总体拥有成本都受严格审视的工作负载。
ST 中国制造 STM32 开始量产出货,MCU 采购路径正在重构
STMicroelectronics 宣布首批完全在中国制造的 STM32 已开始交付。对买家更重要的信号是,面向工业、消费和联网设备的主流 MCU 正在形成更有韧性的双供应路径。
TI 提升隔离电源功率密度,瞄准数据中心和电动车平台
Texas Instruments 推出了基于 IsoShield 封装的新型隔离电源模块,宣称相较分立方案可实现最高 3 倍功率密度,并把方案尺寸缩小最多 70%。对板空间和效率都在受压的紧凑型电源架构来说,这是一个值得重视的信号。