近日AMD也发布AI芯片MI300X加速器,据了解MI300X是一个纯GPU版本,采用AMD CDNA 3技术,使用多达192GB的HBM3
高带宽内存来加速大型语言模型和生成式AI计算。
目前AMD的主要客户将在第三季度开始试用MI300X,第四季度开始全面生产。另一种型号Instinct MI300A 现在正在向客户发售。
除了AI芯片外,AMD还推出专为云计算和超大规模用户设计的全新EPYC服务器处理器,代号为Bergamo,每个插槽最多包含128个内核,并针对各种容器化工作负载进行了优化。
根据统计,目前AMD Instinct GPU已经被许多世界上最快的超级计算机采用。而MI300X加速器是AMD Instinct MI300
系列的新成员,提供一个仅有GPU配置的芯片版本。
这款全新AI芯片舍弃了APU的24个Zen内核和I/O芯片,转而采用更多的CDNA 3 GPU和更大的192GB
HBM3。并且MI300X及其CDNA架构是专为大型语言模型和其他先进AI模型而设计,因此能够将12个5nm
chiplets封装在一起,共有1530亿颗晶体管。
而另一款MI300A是将多个CPU、GPU和高带宽内存封在一起,在13个chiplets 上拥有1460亿颗晶体管。
据了解,AMD第四代EPYC Genoa 处理器在云计算工作负载方面的性能是英特尔竞品的1.8倍,在企业工作负载方面的性能提高到1.9
倍。
而AMD的ROCm是一套完整的库和PM系统工具,用于优化AI软件栈,不过不同于CUDA,这是一个开放的平台。AMD还公布了一种AMD Infinity
架构,目前该架构将8个MI300X 加速器连接在一个考虑了AI推理和训练的标准系统中,提供共 1.5TB HBM3 内存。
以上源自互联网,版权归原作所有 |