【资料图】
站长之家(ChinaZ.com) 4月19日消息:根据 TrendForce 集邦咨询研究显示,AI 服务器出货动能强劲,带动 HBM 需求提升。预计到 2022 年,三大原厂 HBM 市占率分别为 SK 海力士(SK hynix)50%、三星(Samsung)约 40%、美光(Micron)约 10%。
HBM 全称 high bandwidth memory,新型 CPU / GPU 内存芯片,是指将多个 DDR 芯片堆叠在一起后和 GPU 封装在一起,实现大容量,高位宽的 DDR 组合阵列。
高阶深度学习 AI GPU 的规格也刺激了 HBM 产品更迭,三大原厂也已规划相对应规格 HBM3 的量产。今年将有更多客户导入 HBM3 的预期下,SK 海力士作为目前唯一量产新世代 HBM3 产品的供应商,其整体 HBM 市占率有望藉此提升至 53%。
预计到 2023 年,AI 服务器出货量年增率有望达 15.4%,刺激了 Server DRAM、SSD 与 HBM 需求同步上升。AI 服务器多增加 GPGPU 的使用,因此以 NVIDIA A100 80GB 配置 4 或 8 张计算,HBM 用量约为 320~640GB。未来在 AI 模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动 Server DRAM、SSD 以及 HBM 的需求成长。
(举报)