相关证件: 
会员类型:
会员年限:3年
发布时间: 2024/3/1 9:55:23 | 48 次阅读
美光宣布已开始批量生产 HBM3E解决方案。美光24GB 8H HBM3E 将成为NVIDIA H200 Tensor Core GPU的一部分,该 GPU 将于 2024 年第二季度开始发货。
随着人工智能需求持续激增,对内存解决方案的需求至关重要,以跟上不断扩大的工作负载的步伐。美光的 HBM3E 解决方案通过以下方式正面应对这一挑战:
卓越性能:美光 HBM3E 的引脚速度超过9.2 Gb/s,可提供超过1.2 TB/s的内存带宽,为 AI 加速器、超级计算机和数据提供闪电般的数据访问中心。
卓越的效率:美光科技的 HBM3E ling先业界,与竞争产品相比,功耗降低约 30% 。为了支持不断增长的人工智能需求和使用,HBM3E 以zui低的功耗提供zui大的吞吐量,以改善重要的数据中心运营支出指标。
无缝可扩展性:美光 HBM3E 目前拥有24 GB 容量,允许数据中心无缝扩展其人工智能应用程序。无论是训练大规模神经网络还是加速推理任务,美光的解决方案都提供了必要的内存带宽。
美光将在英伟达quan球人工智能大会上分享更多有关人工智能内存产品组合和路线图的信息。