首页 > 头条

电子行业点评:AMD发布数据中心AI芯片MI300 人工智能发展加速

来源:国金证券股份有限公司 2023-06-14 11:37:23


(资料图片)

2023 年6 月14 日,AMD 举行数据中心和AI 技术首映会议,AMD 展示了新产品以及在数据中心、人工智能以及高性能计算等领域解决方案的发展趋势。会上,AMD 发布了Instinct MI300A(APU)、Instinct MI300X(GPU)、具备3D V-Cache 技术的EPYC Genoa-X、定位云计算场景的EPYC Bergamo、针对电信和边缘工作负载的EPYCSienna 以及数据中心DPU、智能网卡等一系列新产品。

Instinct MI300A 为AMD 首个集成24 个Zen 4 CPU核心、CNDA 3 架构GPU 核心以及128GB HBM3 的APU,被认为在性能上有望与英伟达的Grace Hopper 相媲美。MI300A 在设计上采用3D 堆叠和Chiplet 设计,配备了9 个基于5nm 制程的小芯片(Zen 4 通常为8 核Die,因此我们推测9 个小芯片为3 个CPU+ 6 个GPU 的配置),9 个小芯片被堆叠在4 个基于6nm 制程的小芯片之上,其晶体管总数高达1460 亿,多于英伟达H100 的800 亿,是AMD目前生产的最大规模芯片。在性能表现上,与上一代Instinct MI250 相比,Instinct MI300A 进行人工智能训练的表现(TFLOPS)将成长8 倍,能效表现(TFLOPS/watt)将成长5 倍,MI300A 已经开始推出样品。

Instinct MI300X 集成了12 个5nm 的小芯片,提供了192GB 的HBM3、5.2TB/s 的带宽,晶体管数量高达1530亿。MI300X 提供的HBM 密度是英伟达H100 的2.4 倍,HBM 带宽是H100 的1.6 倍,意味着在MI300X 上可以训练比H100 更大的模型,单张加速卡可运行一个400 亿参数的模型。AMD还推出了Instinct 训练平台,内置8 个MI300X,提供总计1.5TB 的HBM3 内存,MI300X 和Instinct 训练平台将于23Q3 开始推出样品。

EPYC Genoa-X 为带有3D V-Cache 服务器处理器,Genoa-X 最高为96 Zen 4 核心,具备超大3D V-Cache 缓存,总L3 缓存达1.1GB。相较于Intel 80 核的至强处理器,Genoa-X 在各应用场景的表现提升了2.2-2.9 倍不等。

EPYC Bergamo 为定位于多核心场景的云原生处理器,具备128 个Zen 4c 核心,820 亿晶体管数量,基于最高能效而非最高性能设计。Zen 4c 核心保留了与Zen 4 类似的设计,架构指令集一致,同样基于5nm 制程设计,但是单核心面积缩小了35%,并通过3D V-Cache 技术使得CCD 内的核心数量从8 个翻倍到16 个,总核心数量从Genoa的96 个成长到128 个。Genoa 针对更高的主频和性能而设计,而Bergamo 针对更高吞吐量的工作负载而设计,更适配终端厂商云计算业务场景中高密度计算的需求。

我们持续看好人工智能成为未来15 年最大的科技变革,人工智能的发展将重塑电子半导体基础设施,海量数据的收集、清洗、传输、训练以及推理需求,将带来算力和网络的迭代升级,利好AI 数据中心及边缘高速运算大量使用的CPU/GPU/FPGA/ASIC,HBM 存储器,3D NAND,DDR5,以太网PHY 芯片,电源管理芯片,PCB/CCL,光芯片及光模块。根据PrecedenceResearch 的数据,2022 年全球人工智能芯片市场规模为168.6 亿美元,22-32 年CAGR 有望达29.7%。我们看好人工智能加速发展对电子行业带来的发展新机遇,细分板块有望持续受益。

重点推荐:AMD、通富微电、中际旭创、新易盛、源杰科技。

人工智能技术迭代不如预期;2023 年海外主要经济体陷入衰退预期;美国对华制裁加剧;AI 各终端市场持续萎靡。

上一篇

这样的“好评返现”为何禁而不止 焦点速看

下一篇

最后一页

为你推荐

最新热文