又一家存储巨头加速HBM布局,以满足AI服务器的需求增长,继Hanmi Semiconductor之后再次推动HBM市场提升。有消息称三星电子将于今年下半年开始批量生产高带宽内存(HBM)芯片,以满足持续增长的人工智能(AI)市场。
根据报道,三星将量产16GB、24GB的HBM3存储芯片,这些产品数据处理速度可达到6.4Gbps,有助于提高服务器的学习计算速度。
三星执行副总裁Kim Jae-joon在4月份的电话会议上表示,该公司计划在今年下半年推出下一代HBM3P产品,以满足市场需求的更高性能和容量。除了HBM之外,三星还不断推出新的内存解决方案,例如HBM-PIM(一种集成了AI处理能力的高带宽内存芯片)和CXL DRAM,以克服DRAM容量的限制。
从市场格局上看,据全球研究机构TrendForce集邦咨询数据显示,2022年三大原厂HBM市占率分别为SK海力士(SKhynix)50%、三星(Samsung)约40%、美光(Micron)约10%。
TrendForce集邦咨询指出,此外,高阶深度学习AIGPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIAH100与AMDMI300的搭载,三大原厂也已规划相对应规格HBM3的量产。因此,在今年将有更多客户导入HBM3的预期下,SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。