AI系列报告之接口:AI大算力需求加速新技术渗透 东方证券 2023-04-19 附下载
发布机构:东方证券发布时间:2023-04-19大小:556.57 KB页数:共8页上传日期:2023-04-21语言:中文简体

AI系列报告之接口:AI大算力需求加速新技术渗透东方证券2023-04-19.pdf

摘要:核心观点AI模型数据量和算力需求大。ChatGPT3相较ChatGPT2在数据存储端从百G提升至40T,在存储量上有约100倍的提升,算力需求同样也呈几何倍增长。据OpenAI测算,2012年以来全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,远超摩尔定律的增长速度。美光表示,一个典型的人工智能服务器的DRAM容量是普通服务器的8倍,NAND容量是普通服务器的3倍。AI服务器快速增长,内存技术同步升级。根据TrendForce,预计2022年搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,而2023年ChatGPT相关应用有望再度刺激AI相关领域,预计2023年出货量增长率可达8%,2022-2026年复合成长率将达10.8%。为提升服务器性能,AI服务器需搭载多个CPU处理器,同时服务器CPU性能不断升级,要求内存技术同步升级。DDR5、HBM、CXL、NVLink等内存技术将加速渗透,有望充分受益于AI带来的算力需求增长。DDR5需要使用更多内存接口芯片。DDR5的内存接口缓存芯片RCD价格远高于DDR4,内存接口芯片有望迎来量价齐升。DDR5芯片需要搭载更多的SPD、电源管理芯片(PMIC)和温度传感器(TS)等配套芯片。HBM为大算力芯片提供支撑。如今搭载于新兴AI应用的内存芯片亟待升级,而HBM是一种基于3D堆叠工艺的DRAM内存芯片,被安装在GPU、网络交换设备、AI加速器及高效能服务器上。HBM作为一种带宽远超DDR/GDDR的高速内存,将为大算力芯片提供能力支撑,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。TrendForce预估2023-2025年HBM市场年复合成长率有望成长至40-45%以上。CXL兼容性强、可实现内存一致性。CXL为英特尔于2019年推出的一种开放性互联协议,能够让CPU与GPU、FPGA或其他加速器之间实现高速高效的互联,从而满足高性能异构计算的要求。在AMD、ARM、IBM以及英特尔等主要CPU供应商的支持下,CXL已经成为领先的行业标准。美光科技在22年5月与投资者交流时曾预测CXL相关产品的市场规模,到2025年预计将达到20亿美金,到2030年可能超过200亿美金。NVLink可最大化提升系统吞吐量。第四代NVIDIA®NVLink®技术可为多GPU系统配置提供高于以往1.5倍的带宽,以及增强的可扩展性。单个NVIDIA H100 TensorCoreGPU支持多达18个NVLink连接,总带宽为900GB/s,是PCIe5.0带宽的7倍。第三代NVIDIA NV Switch™基于NVLink的高级通信能力构建,可为计算密集型工作负载提供更高带宽和更低延迟。NVIDIA DGX™H100等服务器可利用NVLink技术来提高可扩展性,进而实现超快速的深度学习训练。投资建议与投资标的我们看好服务器带来的接口芯片技术升级趋势,建议关注澜起科技、聚辰股份、裕太微、龙迅股份。风险提示服务器需求拉动不及预期、新技术渗透率不及预期。

免责声明:
1.本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。
2.如发布机构认为违背了您的权益,请与我们联系,我们将对相关资料予以删除。
3.资源付费,仅为我们搜集整理和运营维护费用,感谢您的支持!

合集服务:
单个细分行业的合集获取请联系行研君:hanyanjun830

关于上传者

文档

495

粉丝

0

关注

0
相关内容
加入星球
开通VIP,可免费下载 立即开通
开通VIP
联系客服 扫一扫

扫一扫
联系在线客服

公众号

扫一扫
关注我们的公众号

在线反馈
返回顶部