凭仗宣告的片强新品,AMD正式向英伟达的推出AI芯片王者位置建议挑战 。 美东光阴6月13日周二 ,数模AMD举行了新品宣告会 ,英伟运行亿参其中最重磅的达A敌A多达新品当属性用于磨炼大模子的ADM开始进GPU Instinct MI300 。 AMD CEO苏姿丰介绍,片强天生式AI以及狂语言模子(LLM)需要电脑的推出算力以及内存大幅后退。她估量 ,数模往年 ,英伟运行亿参数据中间AI 减速器的达A敌A多达市场将抵达300亿美元摆布 ,到2027 年将逾越1500 亿美元 ,片强复合年削减率逾越 50%。推出 苏姿丰演示介绍 ,数模AMD的Instinct MI300A号称全天下首款针对于AI以及高功能合计(HPC)的减速处置器(APU)减速器。在13个小芯片中普遍1460亿个晶体管。 它接管CDNA 3 GPU架谈判24个Zen 4 CPU内核 ,配置装备部署128GB的HBM3内存。比照前代MI250,MI300的功能后退八倍,功能后退五倍。AMD在宣告会稍早介绍 ,新的Zen 4c内核比尺度的Zen 4内核密度更高 ,比尺度Zen 4的内核小35% ,同时坚持100%的软件兼容性。 AMD推出一款GPU专用的MI300,即MI300X,该芯片是针对于LLM的优化版,具备192GB的HBM3内存 、5.2TB/秒的带宽以及 896GB/秒的Infinity Fabric 带宽 。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。 AMD称 ,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这象征着,AMD的芯片可能运行比英伟达芯片更大的模子 。 Lisa Su介绍,MI300X可能反对于400亿个参数的Hugging Face AI 模子运行 ,并演示了让这个LLM写一首对于旧金山的诗。这是全天下初次在单个GPU上运行这么大的模子 。单个MI300X可能运行一个参数多达800亿的模子 。 LLM需要的GPU更少 ,给开拓者带来的直接短处便是,可能节约老本 。 AMD还宣告了AMD Instinct 平台 ,它具备八个MI300X,接管行业尺度OCP妄想,提供合计1.5TB 的HBM3 内存 。 苏姿丰称 ,适用于CPU以及GPU的版本MI300A如今就已经出样,MI300X以及八个GPU的Instinct 平台将在往年第三季度出样,第四季度正式推出 。 亚马逊、微软 |