美光的 12-Hi HBM3E 内存已准备就绪
美光宣布已开始提供其"生产就绪"的HBM3E内存解决方案样品,该解决方案采用12-Hi设计,容量达36GB,已向英伟达等合作伙伴提供。
美光HBM3E12-high拥有令人印象深刻的36GB容量,比目前的HBM3E8-high产品增加了50%,使像Llama2这样拥有700亿个参数的大型人工智能模型可以在单个处理器上运行。容量的增加避免了CPU卸载和GPU-GPU通信延迟,从而缩短了运算时间。
MicronHBM3E12-high36GB的功耗大大低于竞争对手的HBM3E8-high24GB解决方案。MicronHBM3E12-high36GB提供超过每秒1.2TB(TB/s)的内存带宽,引脚速度超过每秒9.2gigabits(Gb/s)。HBM3E的这些综合优势能够以最低的功耗提供最大的吞吐量,并确保耗电的数据中心获得更好表现。
此外,MicronHBM3E12-high还集成了完全可编程的MBIST,能够以全规格速度运行系统代表性流量,为加快验证提供了更好的测试覆盖范围,从而加快了产品上市时间,并提高了系统可靠性。
美光现已向主要行业合作伙伴交付可量产的HBM3E12-high单元,供整个人工智能生态系统进行鉴定。HBM3E12-high这一里程碑展示了美光为满足不断发展的人工智能基础设施的数据密集型需求而进行的创新。
美光也是台积电3DFabric联盟的得意合作伙伴,该联盟帮助塑造半导体和系统创新的未来。人工智能系统制造非常复杂,HBM3E集成需要存储器供应商、客户和外包半导体组装和测试(OSAT)厂商之间的密切合作。
以下是美光HBM3E12高36GB的亮点:
正进行多个客户资格认证:美光正在向主要行业合作伙伴交付可量产的12-high单元,以实现整个人工智能生态系统的资格认证。
无缝可扩展性:HBM3E12-high拥有36GB的容量(比当前的HBM3E产品容量增加了50%),使数据中心能够无缝扩展不断增加的人工智能工作负载。
高效率:美光HBM3E12高36GB解决方案的功耗大大低于同类HBM3E8高24GB解决方案。
高性能:HBM3E12-high36GB的引脚速度超过每秒9.2千兆比特(Gb/s),可提供超过每秒1.2TB的内存带宽,为人工智能加速器、超级计算机和数据中心实现快如闪电的数据访问。
加速验证:完全可编程的MBIST功能能够以代表系统流量的速度运行,为加快验证提供了更大的测试覆盖范围,从而加快了产品上市时间,并提高了系统可靠性。
踩一下[0]
顶一下[0]