20240326_中泰证券_电子行业AI系列之HBM:AI硬件核心需求爆发增长_42页.pdf

返回 相关 举报
20240326_中泰证券_电子行业AI系列之HBM:AI硬件核心需求爆发增长_42页.pdf_第1页
第1页 / 共42页
20240326_中泰证券_电子行业AI系列之HBM:AI硬件核心需求爆发增长_42页.pdf_第2页
第2页 / 共42页
20240326_中泰证券_电子行业AI系列之HBM:AI硬件核心需求爆发增长_42页.pdf_第3页
第3页 / 共42页
20240326_中泰证券_电子行业AI系列之HBM:AI硬件核心需求爆发增长_42页.pdf_第4页
第4页 / 共42页
20240326_中泰证券_电子行业AI系列之HBM:AI硬件核心需求爆发增长_42页.pdf_第5页
第5页 / 共42页
亲,该文档总共42页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
AI 系 列 之 HBM:AI 硬 件 核 心,需 求 爆 发 增 长 电子行业 证 券 研 究 报 告/行业深度报告 2024 年 3 月 26 日 S0740521120002 Email S0740521120001 Email S0740522120002 Email Table_Profit 480()6,290,396()3,127,038 Table_QuotePic-Table_Report AI AI+24+AI OCS AI 0-1 Table_Finance()EPS PE PEG(24E)2022 2023E 2024E 2025E 2022 2023E 2024E 2025E 通富微 电 22.84 0.63 0.33 0.10 0.60 36 69 223 38-20 赛腾股 份 75.90 0.90 1.53 3.37 3.81 85 50 23 20 0 香农芯 创 39.60 0.49 0.69 0.79 0.98 81 58 50 41 2 精智达 70.95 0.72 0.70 1.24 1.71 98 101 57 42 1 新益昌 71.38 2.27 2.00 0.59 2.58 31 36 121 28 6 华海诚 科 84.12 0.59 0.51 0.41 0.61 143 165 206 139 143 雅克科 技 55.26 0.70 1.10 1.40 2.08 79 50 40 27 1 兴森科 技 13.01 0.37 0.31 0.15 0.26 35 42 85 49-5 深南电 路 87.00 2.89 3.20 2.73 3.90 30 27 32 22 2 联瑞新 材 43.43 0.93 1.01 0.94 1.36 47 43 46 32 2 长电科 技 28.25 1.65 1.81 0.82 1.37 17 16 34 21-3 2024 3 25 WIND AI HBM AI AI AI AI HBM GDDR DRAM AI HBM HBM1 HBM3E I/O HBM AI HBM GPU HBM 1 H100 5 HBM3 80GB 23 H200 6 HBM3E HBM3E GPU 144GB 3 18 GTC2024 B100 B200 192GB 8 24GB 8 HBM3E GPU HBM AMD MI300 TPU HBM 24 HBM 150 23 HBM 22/50%/40%/10%HBM HBM3 HBM HBM3E HBM 24 HBM 2+HBM3E 3 8 HBM3E 3 HBM3 HBM3E 2 8 HBM3E 2 12 HBM3E HBM 3D HBM DRAM Die Logic Die Die TSV TSV HBM MR-MUF TCB MR-MUF TCB HBM TSV/HBM HBM 1/2 BESI/ASMPT/Camtek HBM 1/2/3/4/-40%-30%-20%-10%0%10%300-2-1.HBM AI.-5-1.1HBM.-5-1.2 HBM AI 2024.-11-1.3.-13-2.HBM.-18-2.1.-18-2.2 HBM TSV Micro bump.-21-3.HBM.-31-3.1.-31-3.2.-33-3.3/.-38-4.-40-5.-40-图表 1:英伟达GPU 浮点 运算和带宽提升速度 失衡.-5-图表 2:处理器和存储器 的速度失配.-5-图表 3:存储的数据的传 输速度慢.-6-图表 4:数据的传输功耗 大.-6-图表 5:存算一体类别.-7-图表 6:HBM 定位在片上存 储和普通 DRAM 之间.-8-图表 7:HBM 兼顾带宽和容 量.-8-图表 8:HBM 是 DRAM 中的一种.-9-图表 9:英伟达和AMD 数 据中心GPU 配套的显存.-9-图表 10:HBM 高带宽.-10-图表 11:HBM 低能耗.-10-图表 12:GDDR 是2D 结构,HBM 是 3D 结构.-10-图表 13:256GB/s 带宽对 GDDR6 和 HBM2 的性能要求.-10-图表 14:HBM 的高带宽优 势明显.-10-图表 15:HBM 占用的面积 小.-10-图表 16:海力士HBM 迭代 情况.-11-图表 17:HBM 结构.-12-图表 18:H100 封装结构.-12-WUAZzQsPsRmNoQmPnQpQrQ8O8Q8OtRqQnPsOlOpPsRfQtRuM8OqQzRwMmPtNxNoOoN-3-图表 19:AI 训练芯片的 HBM 使用情况.-12-图表 20:HBM 市场需求测 算.-13-图表 21:Sever DRAM 市场 份额.-13-图表 22:Mobile DRAM 市场份额.-13-图表 23:Consumer Eletronics DRAM(利基 DRAM)份额.-14-图表 24:Graphic DRAM 市场份额.-14-图表 25:三大原厂在不同 制程使用 EUV 技术的情况.-14-图表 26:DRAM 制程迭代.-15-图表 27:HBM 发展历程.-16-图表 28:HBM 竞争格局.-16-图表 29:HBM 不同世代占 比.-16-图表 30:HBM 发展历程.-17-图表 31:三大原厂HBM 开 发进度.-17-图表 32:海力士官网的HBM 产品料号情况.-18-图表 33:三星官网的HBM 产品料号情况.-18-图表 34:英伟达P100 芯 片供应链情况.-19-图表 35:HBM 结构.-19-图表 36:HBM 的逻辑芯片 的功能区.-19-图表 37:传统 DRAM 与 HBM 制造和封测流程对比.-20-图表 38:HBM Stack 制造 流程.-21-图表 39:海力士MR-MUF 工艺.-21-图表 40:HBM 核心工艺:TSV、micro bump 和堆叠键 合.-21-图表 41:HBM(4 层DRAM+1 层逻辑)3D 封装成本划 分(99.5%键合良率).-22-图表 42:HBM(4 层DRAM+1 层逻辑)3D 封装成本划 分(99%键合良率).-22-图表 43:3D TSV 结构.-23-图表 44:TSV-Viafirst.-23-图表 45:TSV 工艺应用情 况.-23-图表 46:TSV 工艺流程图.-23-图表 47:TSV 工艺设备与 材料.-24-图表 48:Bump 金属凸点.-24-图表 49:电镀锡球凸点的 工艺流程图.-25-图表 50:bump 工艺设备与 材料.-25-图表 51:不同代际HBM 的Bump 间距与互联技术.-26-图表 52:大规模回流焊基 本流程.-27-图表 53:热压键合基本流 程.-27-图表 54:底填料分类.-28-4-图表 55:TC-NCF 工艺流程图.-28-图表 57:TC-NCF 步骤及设备.-28-图表 57:MR-MUF 工艺流程图.-29-图表 58:MR-MUF 步骤及设备.-29-图表 59:MR-MUF 与TC-NCF 工艺对比.-29-图表 60:MR-MUF 具备更高的热导性.-30-图表 61:传统凸点技术与 混合键合技术流程对 比.-30-图表 62:EMC 在HBM 中的应用.-32-图表 63:硅微粉的应用.-32-图表 64:电镀液在bump 中的应用.-33-图表 65:前驱体在原子层 沉积中的应用.-33-图表 66:三种不同的HBM 工艺对应三类不同的 核心 键合设备.-34-图表 67:热压键合机的“热压”过程.-34-图表 68:热压键合机海内 外主要厂商简介.-35-图表 69:Kurtz Ersa HOTFLOW 型号回流炉示意图.-36-图表 70:回流焊炉海内外 主要厂商简介.-36-图表 71:焊球焊接键合与 铜铜键合示意图.-37-图表 72:混合键合机海内 外厂商简介.-38-图表 73:HBM 设备/材料产 业链.-39-图表 74:大陆 HBM/先进封 装材料产业链公司.-40-JAZ6Zr2N5SGdYQdRsy5m7bzkDSe1RnSOm2svFrHBRVmbrtboGdDFD0 xrgBmkV6rL-5-1.HBM AI 1.1 HBM 2 1 FLOPS 2 GPU GPU GPU H100 A100 FP32 19.5 66.9tflops 3+2039GB/s 3.35TB/s 1.5 AI AI AI AI 40 1 2 SRAM DDR 3 DRAM 10-15nm 5nm 1 2 图表1:英伟 达 GPU 浮 点 运算 和 带 宽提 升 速度 失 衡 图表2:处理 器 和存 储 器的速 度 失 配 来源:Semianalysis,中 泰证 券研 究所 来源:知存 科技,中 泰证 券研 究所 -6-AI PNM PIM CIM 1 PNM PNM HBM HBM H200 H100 AI GPU 2 PIM die“”“”DRAM HBM-PIM PIM-DIMM HBM-PIM HBM PIM 3 CIM IMC In-memory Computing AI Convolutional Neural Network,CNN 图表3:存储 的 数据的传 输速 度 慢 图表4:数据的传 输 功 耗大 来源:知存 科技,中 泰证 券研 究所 来源:知存 科技,中 泰证 券研 究所 -7-图 表 5:存算 一 体类 别 来源:中国 移动 研究 院 存算 一体 白 皮书(2022),中泰 证券 研究 所 HBM LLC DDR HBM CPU/GPU Last Level Cache LLC SRAM DRAM DDR DDR DDR 1MB SRAM$5$10 1GB HBM$10-$20 2 1GB DDR4$1.95$4.11GB=1024MB SRAM HBM 500+DRAM 1000+HBM DRAM 5+AI SoC TB/s 3200Mbps DDR4 DIMM 25.6GB/s 4800Mbps DDR5 DIMM 38.4GB/s 8 CPU DDR4 DDR5 204.8GB/s 307GB/s SoC 4 HBM2 1TB/s -8-HBM 用于 AI 训练卡,GDDR 用于 AI 推理卡。JEDEC(固 态技 术协 会,微电子产业 的领导 标准机 构)定义并 开发了 以下三 类 DRAM 标准,以帮助设 计人 员满 足其 目标 应用的 功率、性 能和 尺寸 要求。1)标准型 DDR:Double Data Rate SDRAM,针 对 服务器、云 计算、网络、笔记 本电脑、台式机 和消费类 应用程 序,允许 更宽的通 道宽度、更高的密 度和 不同 的外 形尺 寸。2)LPDDR:Low Power Double Data Rate SDRAM,LPDDR 具有 体积 小、功耗低 的优 势,可以 减小 无 线电子 产品 的体 积,低功 耗 可延长 使用 时间,在智能 手机、平 板等 应用 中使用 广泛。3)GDDR:Graphics Double Data Rate SDRAM,适用 于具有 高带 宽需 求的计算 领域,通常 称为 显存,例 如图 形相 关应 用程 序、数据中 心和 AI 等,与 GPU 配套 使用,GDDR 又可 分为 普 通 GDDR 和 HBM,普通 GDDR采用平 面结 构,HBM 采用 3D 堆 叠结 构,普 通 GDDR 多 用在 AI 推 理卡中,HBM 用于 AI 训练 卡 或少数 高端 的 AI 推理 卡。因此,推 理芯 片如英伟 达 A100、H100 通 常使 用 HBM 配套,而 L4、A16 等均配 套 GDDR,高端推 理卡 可根 据要 求配 套 HBM 或 GDDR,如 A30、A40。图表6:HBM 定 位 在片 上 存储 和 普 通 DRAM 之间 图表7:HBM 兼 顾 带宽 和 容量 来源:海力 士,中泰 证券 研究 所 来源:Synopsys,中泰 证券 研究 所 -9-图表8:HBM 是DRAM 中 的一种 来源:Semiconductor Engineering,中 泰证券 研究 所 图表9:英伟 达和 AMD 数 据中 心 GPU 配套 的 显存 来源:英伟 达、AMD 官网,中泰 证 券研究 所 HBM DRAM HBM 1024bit I/O HBM GDDR DDR GDDR VS HBM 1 HBM HBM TSVSDRAM利 基 型DRAMDIMM DRAM on PCB DRAM on PCBDDR1PC、服 务器、数据中心、家电R/LRDIMM:服务器、云计算、数据中心、网络显卡、游戏机、高性能计算领域DDR2DDR3DDR4GDDR3GDDR1GDDR2DDR5GDDR4GDDR5主流DRAM应用领域注:根据DRAMexchange 数 据,目 前DDR4 4GB DDR4 8Gb 512M*16 属 于 利基型DRAMHBM数据密集系统(图形卡、AI、高性能计算等)HBM2EHBM1HBM2HBM3LPDDR手机、汽车、平板等LPDDR1LPDDR2LPDDR3LPDDR4LPDDR5标准DDR 移动DDR 图形DDRU/SODIMM:台式机、笔记本HBM3EFP8 FP16 FP32H200 SXM 3958 1979 67 HBM3E 141GB 4.8TB/sPCIe(2-slot air cooled)3026 1513 51.2 HBM2E 80GB 5120bits 2TB/sSXM 3958 1978.9 66.9 HBM3 80GB 5120bits 3.35TB/sNVL(2 x PCIe:2-slot air cooled)7916 3958 134 HBM3 188GB 6144bits 7.8TB/sL4 PCIe(1-slot,low-profile)485 242 30.3 GDDR6 24GB 192bits 300GB/sL40S 4.4(H)x 10.5(L)dual slot 1466 733 91.6 GDDR6 48GB 384bits 864GB/sL40 4.4”(H)x 10.5”(L)dual slot 724 362.1 90.5 GDDR6 48GB 384bits 865GB/sPCIe(2-slot air cooled/1-slot liquid cooled)312 1935GB/sSXM 624 2039GB/sA2 PCIe(1-slot,low-profile)36 4.5 GDDR6 16GB 128bits 200GB/sA10 FHFL(1-slot)250 31.2 GDDR6 24GB 384bits 600GB/sA16 FHFL(2-slot)71.6 18 GDDR6 64GB 128bits 800GB/sA30 FHFL(2-slot)330 10.3 HBM2 24GB 3072bits 933GB/sA40-4.4(H)x 10.5(L)dual slot 299.4 37.4 GDDR6 48GB 384bits 696GB/s16GB32GBMI60 PCIe 29.49 14.7 HBM2 32GB 4096bits 1024GB/sMI100/PCIe 184.6 23.1 HBM2 32GB 4096bits 1.2TB/sMI250/OAM Module 362.1 45.3 HBM2E 128GB 8192bits 3.2TB/sMI250X OAM Module 383 47.87 HBM2E 128GB 8192bits 3.2TB/sMI210 PCIe 181 22.6 HBM2E 64GB 4096bits 1.6TB/sMI300A HBM3 128GB 3.2TB/sMI300X HBM3 192GB 5.2TB/sHBM2 Form Factor A100 80GBHBM2 or H100 MI50 PCIe 26.5 4096bits 1024GB/s5120bits 19.513.3-10-3D GDDR 2D HBM 2 HBM GDDR 2D HBM HBM TSV I/O 3 HBM HBM 4 HBM HBM TSV Bumping 图表10:HBM 高带宽 图表11:HBM 低能耗 来源:海力 士,中泰 证券 研究 所 来源:海力 士,中泰 证券 研究 所 图表12:GDDR 是 2D 结 构,HBM 是 3D 结构 图表13:256GB/s 带宽对GDDR6 和 HBM2 的 性能 要 求 来源:Rambus,中泰 证券 研究 所 来源:Rambus,中泰 证券 研究 所 图表14:HBM 的 高 带宽 优 势明 显 图表15:HBM 占 用 的面 积 小 来源:Rambus,中泰 证券 研究 所 来源:应用 材料,中 泰证 券研 究所 HBM 12 2014 HBM 2018 HBM2 HBM HBM3 2024 HBM3E DRAM HBM1 GDDR6 HBM2 GB/s 256 256 bit 128 1024 HBM2 Gbps 16 2 HBM2 PHY 1.5-1.75 1 HBM2 PHY 3.4-4.5 1 HBM2 GDDR6 DDR4 LPDDR4 GDDR6 -11-4 2Gb DRAM HBM 8Gb 1GB HBM3E 12 3GB DRAM HBM 36GB HBM4 16 I/O HBM1 HBM3E 1024bit HBM1 1Gb/s HBM3E 9.2Gb/s HBM1 128GB/s HBM3E 1.2TB/s HBM4 HBM4 16 2048bit 图表16:海力 士 HBM 迭 代情 况 来源:海力 士,中泰 证券 研究 所 HBM HBM 1 HBM DRAM Die DRAM Die GPU HBM HBM=DRAM DRAM GPU HBM=HBM*HBM 2 HBM I/O I/O 带宽 是处 理器与 显存 之间 的数 据的 传速度,带 宽(GB/s)=数 据的 传输 速率(即 I/O 读写速 度,Gbps)总 线 位宽(bit)/8。HBM主要是通 过增加 总线位宽 的宽度提 升带宽,同时数 据的传输 速率较 慢,实现运 行功 耗更 低、面 积更 小,但因 涉及 到复 杂的 堆叠、中 介层 等技 术,成本更 高。3)功 耗:数 据 的传输 速度 越大,功 耗越 大,数 据的 传输 的距离越远,功 耗越 大。HBM GPU HBM HBM 1 HBM 1 HBM3 1024bit 1 HBM3 1024bit HBM GPU GPU HBM 2 HBM HBM 1.2 HBM AI 2024 AI HBM GPU HBM H100 1 H100 PICe CoWoS-S 7 1 GPU+6 HBM 1 GPU 6 HBM 5 active HBM HBM 1024bit 5 5120bit 1 non-HBM H100 PCIe HBM 80GB 5 activer HBM2E HBM2E 16GB HBM2E 8 2GB DRAM Die HBM1 HBM2 HBM2E HBM3 HBM3E HBM4年份 2014 2018 2020 2022 2024 2026堆叠层数 4 4 or 8 4 or 8 8 or 12 8 or 12 12 or 16单 层 DR AM 容 量 2Gb 1GB 2GB 2GB 3GB 3GB容量 1GB 4GB OR 8GB 8GB OR 16GB 16GB OR 24GB 24GB OR 36GB 48GB 或 64GBI/O 数量(总线位宽,bit)1024 1024 1024 1024 1024 2048I/O 速度(数据的传输速率)1Gbps 2.4Gbps 3.6Gbps 6.4Gbps 9.2 Gbps?带宽 128GB/s 307GB/s 460GB/s 819GB/s 1.2TB/s?电压 1.2V 1.2V 1.2V 1.1V -12-图表17:HBM 结构 图表18:H100 封 装 结构 来源:海力 士,中泰 证券 研究 所 来源:Semianalysis,中泰 证券 研究 所 HBM H100 PCIe 80GB HBM2E H200 144GB 6 HBM3E B100 B200 192GB 8 8 HBM3E 图表19:AI 训 练 芯片 的 HBM 使用 情 况 来源:Semianalysis、ANANDTECH,中泰 证券 研究 所 24 HBM 23 8 H100 AI H100 5 HBM2E HBM2E 16GB 8 2GB H100 80GB HBM 640GB HBM HBM GB 10-20 GPU HBM 40%AI 24-25 12%/13%24 HBM 151 23 HBM GB HBM HBM HBM GB I/O(bit)(GTs)(GB/s)LayersA100 40GB PCle 40 2 5 8 5120 2.43 1,555 4/8+1A100 80GB PCle 80 2E 5 16 5120 3.02 1,935 8+1A100 40GB SXM 40 2 5 8 5120 2.43 1,555 4/8+1A100 80GB SXM 80 2E 5 16 5120 3.19 2,039 8+1H100 PCle 80 2E 5 16 5120 3.19 2,039 8+1H100 SXM 80 3 5 16 5120 5.23 3,350 8+1H100 NVL 192 3 12 16 12288 5.08 7,800 8+1H100S SXM 120/144 3 5/6 24 5120 5.6 3584/4301 12+1H200 144GB 3E 6 24 6144 6.5 48000 8+1B100 192GB 3E 8 24 8192 8 8.19 8+1B200 192GB 3E 8 24 8192 8 8.19 8+1Google TPUv4i 8 2 2 24 5120 2.29 585 4+1Google TPUv4 32 2 4 24 5120 2.34 1,200 8+1Google TPUv5i 16 2E 2 24 5120 3.20 819 4+1Google TPUv5 64 3 4/6 24 5120 5.20 2662/3993 8+1AMD MI250X 128 2E 8 24 5120 3.20 3,277 8+1AMD MI300A 128 3 8 24 5120 5.20 5,325 8+1AMD MI300X 192 3 8 24 5120 5.60 5,734 12+1AMD-13-图表20:HBM 市场需求 测算 来源:Trendforce 等,中泰 证券 研究 所 1.3 图形和服务器 DRAM 三大家垄断程度高。1)分下 游三 大原 厂合 计市 占率排 序(23Q1):图形 DRAM(100%)服务器 DRAM(99%)移 动端 DRAM(94%)利基 DRAM(71%),图形、服 务器 DRAM 基 本全 部被 三 星、海力 士和 美光 垄 断,移动 端和 利基DRAM 市场 有其 他玩 家,尤其是 利 基 DRAM 市场,代表 厂商 有中 国台湾厂商华 邦、南 亚、南亚,陆厂商 长鑫存 储、北京 君正、东 芯股份、兆易创新 等。2)分 下游 玩家:三 星在 每 个细分 市场 均为 第一,图 形 DRAM 市 场,三星/海力 士/美光 份额 35%/31%/34%,三 大原 厂份 额较 为 均衡,在 服务 器市场,三星/海 力士/美光 份额 43%/34%/22%,移 动端 市 场,三星/海 力士/美光份 额 53%/19%/18%,三 星 独占 一半 份额(三星 手 机约占 据 20%左 右全球份额),在利 基 DRAM 市场,三星/海力 士/美光 份 额 33%/13%/25%。图表21:Sever DRAM 市 场份 额 图表22:Mobile DRAM 市 场份 额 来源:OMDIA,中泰 证券 研究 所 来源:OMDIA,中泰 证券 研究 所 2023 2024E 2025E单颗GPU 的HBM 总容量(GB)80 112 156.8yoy 40%40%单台AI 服务器的GPU 使用量(颗/台)8 8 8单台AI 服务器的HBM 总容量(GB)640 896 1254.4全球服务器出货量(万台)1,339 1,365 1,434yoy-6%2%5%全球AI 服务器出货量(万台)120.5 165.2 189.5AI 服务器渗透率 9%12%13%全球AI 服务器的HBM 需求量(亿GB)8 15 24HBM 单价(美金/GB)10 10 10AI 服务器HBM 市场 需求(亿美金)76 151 238DRAM 市场规模(亿美金)519 822 1,028yoy 58%25%HBM 占DRAM 市场占比 15%18%23%43%34%22%0%10%20%30%40%50%60%70%80%90%100%58%19%18%6%0%10%20%30%40%50%60%70%80%90%100%-14-图表23:Consumer Eletronics DRAM(利 基 DRAM)份额 图表24:Graphic DRAM 市场 份 额 来源:OMDIA,中泰 证券 研究 所 来源:OMDIA,中泰 证券 研究 所 未来 DRAM 制程演进需要 使用 EUV 光刻技术,三星 最早使用。1)DRAM 制程:进入 10nm 级别 制程 后迭 代速 度 放缓,使 用 1x(16-19nm)、1y(14-16nm)、1z(12-14nm)等字 母表 示,另外三 星海 力士 使用 1a(约 13nm)、1b(10-12nm)、1c(约 10nm),对应美 光 1、1、1。2)三 星 在 1znm 就已 使用 EUV 光刻 技术。三星在 2020 年在 1znm DDR5上采 用 1 层 EUV,2021 年 量产采 用 5 层 EUV 的 DDR5,三星 是首 家在DRAM 采用 EUV 光刻 技 术的厂 商,也是 在 DRAM 上使 用 5 层 EUV 的厂商。而海 力士 和美 光在 1znm 仍然 使用 ArF-i 光刻 工艺,2021 年海 力士在 1anm 转 向使 用 EUV,后 续在 1bnm 继续 使用 EUV。而美 光在 2023年宣布 开始 在 1cnm(1 制程)使用 EUV 光刻 技术。EUV 技术,制程更小、单位容量更大,成 本更有优势。图表 25:三 大 原厂 在 不同制 程 使 用 EUV 技 术的 情 况 10nm 1xnm D1x 16-19nm Test vehicle(试验 版本,未 规模 量产)10nm 1ynm D1y 14-16nm 10nm 1znm D1z 12-14nm 1 EUV 10nm 1nm D1a 13nm 5 EUV 10nm 1nm D1b 10-12nm 10nm 1nm D1c)10nm 1 来源:Techinsights,中 泰证 券研 究所 整理 2024 年三大原厂将以迭代 量产 1bnm(1)为主,海 力士 和美光 HBM3E将直接使用 1bnm,三星 采用 1anm。目前,DRAM 先 进制 程技 术已发 展至 第五 代 10nm 级别,美光 称之 为 1nm DRAM,三 星和 海力 士称 为 1bnm DRAM。美 光最先 量 产 1bnm 级别 DRAM。1)三星:2023 年 5 月三 星 量产 12nm 16Gb DDR5 DRAM,9 月三 星开 发出基 于 12nm 级工 艺技 术 的 32Gb DDR5 DRAM,将于 2023 年底 开始 量产。三星透 露将 于 2026 年 推出 DDR6 内 存,2027 年 即实现 原 生 10Gbps33%13%25%29%0%10%20%30%40%50%60%70%80%90%100%35%31%34%0%10%20%30%40%50%60%70%80%90%100%-15-的速度。据 披露,三 星正 在开发 行业 内领 先 的 11nm 级 DRAM 芯片。2)海 力士:2023 年 1 月,海力 士 1anm 服务 器 DDR5 适用 到英 特尔 第四代至 强 可扩 展处 理器,并在 业界 首次 获得 认证。5 月,海 力士 1bnm技术完 成研 发,采用“HKMG(High-K Metal Gate)”工 艺,与 1a nm DDR5 DRAM 相 比功 耗减 少了 20%以上。3)美光:2022 年日 本厂 开 始量 产 1bnm(1)制程,今年中 国台 湾厂 也开始量 产 1bnm(1)制 程,预 计 1cnm(1)制程 在 25H1 在中 国台 湾厂量产,1cnm(1)制 程使 用 EUV 技 术。图表 26:DRAM 制 程 迭代 来源:半导 体行 业观 察、Techinsights,中泰 证券 研究 所 三星和海力士垄断 9 成 HBM 市场,美光份额落后。HBM 市 场垄 断效 应更强,2022 年海 力士/三 星 份额为 50%/40%,美光 份 额仅 10%,海 力士HBM3 产 品领 先其 他原 厂,是 英伟 达 AI 芯片 HBM 的主要 供应 商,份 额最高,而 三星着 重满足其 他云端服 务业者 的订单,在客户加 单下,预计在 HBM3 与 海力 士的 市占 率差距 会大 幅缩 小,20232024 年三 星和 海力士市占 率预 估相 当,合计 拥 HBM 市 场约 95%的市 占率,不过 因客 户组成略有 不同,在 不同 季度 的出货 表现 可能 有先 后。美光因技术路线判断 失误 在 HBM 市场份额比较低,在追赶中。美 光此前在 HMC 投 入更 多资 金,HMC(Hybrid Memory Cube,混 合内 存立 方体)将 DRAM 堆叠、使 用 TSV 硅穿 孔技 术互 连,DRAM 下 方是 一颗 逻辑 芯 片,从 处 理 器到 存 储器 的 通 信是 通 过 高速 SERDES 数据 链 路 进行的,该 链路 会连 接到 DRAM 下面的 逻辑 控制 器芯 片,但不 同于 HBM,HBM 是与 GPU 通过 中介 层互连。HMC 是与 HBM 竞争的 技术,美 光2011 年推 出 HMC,海力士 2013 年 推出 HBM,HMC 与 HBM 开发 时间相近,但 HBM 未 被大 规 模使用,原 因如 下:1)相较 HBM 直接 与处 理器封装 在一 起,HMC 距离 处理器 较远,延 迟更 大。2)HBM 推出 不久 后就被认 证 为 JEDEC 标准,而 HMC 推出 比 HBM 早 2 年但未 被 JEDEC 定为标准,JEDEC 拥 有数 百家会员公 司、奉 行一公 司一票与三 分之二 多数的制度,从而 降低标准 制定被任 何一家 或一批公 司所把控 的风险,因此只有 大家 真正 认可,才 会最终 被推 行为 正式 标准。美光 2018 年由 HMC 转向 HBM。-16-2023 年主流需求自 HBM2E 转向 HBM3,预计 2024 年转向 HBM3 及3E。随着 使 用 HBM3 的 AI 训练芯 片陆 续放 量,2024 年市 场需 求将 大幅转往 HBM3,而 2024 年 将 有望超 越 HBM2E,比 重预 估达 60%,且 受惠于其更 高的 平均 销售 单价,将带 动明 年 HBM 营 收 显著成 长。图表27:HBM 发 展 历程 来源:面包 板,中泰 证券 研究 所 图表28:HBM 竞 争 格局 图表29:HBM 不 同 世代 占 比 2022 2023E 2024E 50%46%49%47%49%40%46%49%47%49%10%4%6%3%5%来源:Trendforce,中 泰证 券研 究所 来源:Trendforce,中 泰证 券研 究所 海力士是 HBM 先驱、技术最强,最早与 AMD 合作开发,三星紧随其后。海力士 在 2015 年首 次为 AMD Fiji 系列 游戏 GPU 提供 HBM,该 GPU由 Amkor 进行 2.5D 封 装,随 后推 出使 用 HBM2 的 Vega 系列,但 HBM对游 戏 GPU 性 能未 产生 太 大改变,考虑 没有 明显 的性 能优势 和更 高的 成本,AMD 在 Vega 之后 的 游戏 GPU 中 重新 使用 GDDR,目 前英 伟达 和AMD 的游戏 GPU 仍 然使 用更便 宜 的 GDDR。随着 AI 模 组中 参数 数量的指数 级增 长,内存 墙问 题愈加 突出,英 伟达 在 2016 年 发布 首款 HBM GPU P100,后 续英 伟达 数 据中 心 GPU 基 本都 采用 海 力士 HBM。海力士 22Q4 量 产全 球首 款 HBM3,而 三星 由于 此 前降低 HBM 的 投入优先级,HBM3 较 海力 士 晚推出 一年 HBM 24H2 HBM3E 1)海 力士:24 年 Capex 优先保 障 HBM 和 TSV 产 能,23 年 HBM 产能已出售 完、同时 持续 收到 额外需 求,预 计 DDR5 和 HBM 产 线规 模将 在24 年 增长 2 倍+。公司 已 从 2023 年 8 月 开始 提供 HBM3E 样 品,2024 年1 月 中旬 结束 开发,3 月开 始量 产 8 层 HBM3E,3 月 底发货。12 层 HBM3E0%20%40%60%80%100%2022 2023E 2024EHBM3 HBM2E -17-已于 2 月送 样。2)三 星:计划 24 年 HBM 产能提高 2.5 倍。23Q3 已量产 8 层和 12 层HBM3,计划 Q4 进 一步 扩 大生产 规模,并 开始 供应 8 层 HBM3E 样 品,2024 年 2 月底 发布 12 层 HBM3E,预计 H1 量产。3)美 光:跳过 HBM3,直接做 HBM3E,2024 年 3 月宣布 量产 8 层HBM3E,将用 于英 伟达 H200,3 月送 样 12 层 HBM3E。图表30:HBM 发 展 历程 来源:各公 司官 网,中泰 证券 研究 所 图表31:三大 原厂 HBM 开发 进 度 来源:Trendforce,中 泰证 券研 究所 HBM42013 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024E 2025 2026海力士AMD 联合开发全球首款HBM;制程:29nm发布HBM2;制程:21nm全球率先量产HBM2E10 月开发出全球首款HBM36 月率先开始量产HBM3,Q3 开始向英伟达4月宣布已经率先研发出12 层 HBM3;8 月送样8 层HBM3E2 月送样12 层HBM3E;3月量产8 层HBM3E;制程:1b nm预计量产HBM4三星从HBM2 开始布局,率先量产HBM2;制程:20nm推出HBM2E,后续量产。制程:1ynm2月推出了HBM-PIM(存算一体)表示HBM3 已量产;制程:1b nmQ3 大规模量产HBM3;8 层HBM3E 送样3 月12H HBM3E 已送样,预计H2 量产;制程:14nm预量产HBM4美光宣布将会开始提供HBM2 产品7 月宣布HBM3E已经开始送样;制程:1 nm3 月8 层HBM3E 宣布量产预计量产HBM4AMDAMD RadeonR9 Fury X,第一款搭载HBM的GPU,使用SK 海力士的HBM在Vega 架构的GPU 上搭载HBM2MI50 和MI60均搭载HBM2;RadeonI
展开阅读全文
相关资源
相关搜索
资源标签

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642