核心观点
AI模型数据量和算力需求大。ChatGPT3相较ChatGPT2在数据存储端从百G提升至40T,在存储量上有约100倍的提升,算力需求同样也呈几何倍增长。据OpenAI测算,2012年以来全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,远超摩尔定律的增长速度。美光表示,一个典型的人工智能服务器的DRAM容量是普通服务器的8倍,NAND容量是普通服务器的3倍。
AI服务器快速增长,内存技术同步升级。根据TrendForce,预计2022年搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,而2023年ChatGPT相关应用有望再度刺激AI相关领域,预计2023年出货量增长率可达8%,2022-2026年复合成长率将达10.8%。为提升服务器性能,AI服务器需搭载多个CPU处理器,同时服务器CPU性能不断升级,要求内存技术同步升级。DDR5、HBM、CXL、NVLink等内存技术将加速渗透,有望充分受益于AI带来的算力需求增长。
DDR5需要使用更多内存接口芯片。DDR5的内存接口缓存芯片RCD价格远高于DDR4,内存接口芯片有望迎来量价齐升。DDR5芯片需要搭载更多的SPD、电源管理芯片(PMIC)和温度传感器(TS)等配套
声明:本站所有报告及文章,如无特殊说明或标注,均为本站用户发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
