超微推出具192GB内存的纯GPU之AI芯片MI300X,抢夺AI市场
https://bit.ly/464WD15
超微(AMD)为了追赶辉达,于2023年6月13日正式向外介绍一款纯高性能GPU的AI芯片
MI300X。
前不久,超微推出结合CPU和GPU双架构的Instinct MI 300进军AI训练芯片,这款芯片在
规格和性能直接对准了辉达的Grace Hopper。不过,为了直接瞄准大型语言模型市场,专
为需要所有内存容量来运行最大模型的客户而设计的MI300X不再是混合使用CPU和GPU,
而是用两颗CDNA 3 GPU小芯片取代了MI300A的三颗CPU小芯片,从而形成了12颗小芯片设
计,包含:8颗GPU小芯片和另外4颗IO内存小芯片。
除了纯GPU性能之外,超微的MI300X亦提高内存容量,让当前这一代AI大型语言模型(
LLM)能获得192GB内存。由于AI客户正在以最快的速度抢购GPU和其他加速器,同时需
要更多内存来运行更大的模型。因此,超微提供一个使用8个HBM3内存通道的192GB
GPU将成为当前市场上的一个相当大的优势。
其实,AI芯片可以分为云端、终端和边缘。根据任务划分又可以分为训练芯片和推理芯片
。云端就是在数据中心进行模型训练,芯片需要支撑大量的数据运算,终端和边缘对运算
要求稍弱一些,但却要求快速回应和低功耗。如今辉达H100芯片霸占了训练芯片这一领域
,超微似乎想利用MI300X来争取更多客户的支持。
除了192GB MI300X公布之外,超微还简要宣布了他们所谓的AMD Infinity架构平台。 这
是一种允许最多8颗超微的高阶GPU互连在一起以处理更大的工作负载的8-way MI300X设计
。
就如辉达的8-way HGX和英特尔的Ponte Vecchio的x8 UBB那样,8-way处理器配置目前是
高阶服务器的最佳选择的架构。
另外值得注意的是,AI开发人员历来偏爱辉达芯片的一个原因是它有一个名为 CUDA的开
发完善的软件包,使他们能够利用芯片的核心硬件功能。超微也推出拥有自己的AI芯片软
体,称为ROCm。其希望建构一个强大的软件堆叠方面取得了真正的巨大进步,让该软件堆
叠可与模型、库、框架和工具的开放生态系统一起使用。
超微认为数据中心之AI加速器市场将从2023年的300亿美元左右,以超过50% 的年复合成
长率增长到2027年的1500亿美元以上。
虽然超微没有透露MI300X的价格,但此举可能会给辉达的GPU带来价格压力,毕竟,H100
的价格高达30,000美元或更多,如果超微能够在性能提升的同时,又给市场更合理的价格
,这有助于降低生成式AI应用程式的高成本,也可为其带来可观的市场占有率。