投资要点

  AI硬件核心是算力和存力,HBM高带宽、低功耗优势显著,是算力性能发挥的关键。AI芯片需要处理大量并行数据,要求高算力和大带宽,算力越强、每秒处理数据的速度越快,而带宽越大、每秒可访问的数据越多,算力强弱主要由AI芯片决定,带宽由存储器决定,存力是限制AI芯片性能的瓶颈之一。AI芯片需要高带宽、低能耗,同时在不占用面积的情况下可以扩展容量的存储器。HBM是GDDR的一种,定位在处理器片上缓存和传统DRAM之间,兼顾带宽和容量,较其他存储器有高带宽、低功耗、面积小的三大特点,契合AI芯片需求。HBM不断迭代,从HBM1目前最新到HBM3E,迭代方向是提高容量和带宽,容量可以通过堆叠层数或增加单层容量获得提升,带宽提升主要是通过提升I/O速度。

  HBM市场爆发式增长,海力士和三星垄断市场。目前主流AI训练芯片均使用HBM,一颗GPU配多颗HBM,如英伟达1颗H100使用5颗HBM3、容量80GB,23年底发布的H200使用6颗HBM3E(全球首颗使用HBM3E的GPU)、容量达144GB,3月18日,英伟达在美国加州圣何塞召开了GTC2024大会发布的B100和B200使用192GB(8个24GB8层HBM3E),英伟达GPUHBM用量提升,另外AMD的MI300
AI系列之HBM:AI硬件核心,需求爆发增长
download

声明:本站所有报告及文章,如无特殊说明或标注,均为本站用户发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。