资源描述
行业研究 丨深度报告 丨电子元件 Table_Title AI 浪潮面 面观:训练 向推理过 渡,终 端涌 现百花齐放%1 请阅读最 后评级 说明和 重要声 明 2/25 丨证券研 究报告 丨 报告要点 Table_Summary当前 AI 产业正处于高速发展日 新月异阶段,我们希望通过本篇报告对行业在需求、芯片供给、模型、应用等多个维度对 AI 行 业做全面的梳理。在当前时点,随着训练模型的完善与成熟,大模型逐步应用在云端以及 AI 手 机、AIPC 等各类智能终端,整 体算力需求有望逐步从训练侧导向转向推理侧。在 AI 行业加速发展的背景下,芯片、PCB、服务器等算力基础设施作为 AI 发展浪潮的基石,其战略意义以及投资价值愈发重要。分析师及 联系人 Table_Author 杨洋 蔡少东 范超 SAC:S0490517070012 SAC:S0490522090001 SAC:S0490513080001 SFC:BQK473%2WUFUuNnQpMmNtNsRtOtMqR7N9R7NpNmMtRmQiNpPpMkPpOwObRnMmMMYoOmMwMmRpP 请阅读最 后评级 说明和 重要声 明 丨证券研究报告丨 更多研报请访问 长江研究小程序 电子元件 Table_Title2 AI 浪潮面面观:训练向推理过渡,终端涌现百花齐放 行业研究 丨 深度 报告 Table_Rank 投资评 级 看好丨维 持 Table_Summary2 需求:云厂 商投 入不 减,推理需 求有 望上 升 云厂商:海外 头 部云厂 商均预计 2024 年资本开支将增加。海外头部云厂商 2023Q4 整体 资本开支合计 430 亿元,同比增长 8.9%,环比增长 16.3%;同时,四家厂商均预计 2024 年资 本开支将增加,持续保持对高端 AI 服务器的需求。我们认为:AI 服 务器价值高/算力强,或挤压 通用服务器空间。AI 服务器需求强劲增长,近 期DELL 上调业绩预期,且大幅 上修 2027 年 AI 服务器市场空 间至 1520 亿美元。我们认为:伴 随 模型完 善成熟,算力需求开 始从训练转 向推理。随着训练模型的完善与成 熟,模型和应用产品逐步进入投产模式,处理推理工作负载的人工智能服务器占比将随之攀升。供给:AI 芯 片出 货火 热,液冷市 场蓬 勃发 展 在 2023 四季度,英伟达的数据中心营收达到创纪录的 184 亿美元,同比增长 409%;在 算力需求急剧增长的同时,英伟达也近乎垄断了高端 AI 算力芯片 市场。我们认为:老牌 巨 头竞争+客户自研开发,AI 芯片竞争将加 剧。国外科技公司马不停蹄地推 出AI 芯片,比如 AMD、英特尔、谷歌等厂商。国内厂商处于追赶状态,海思、昆仑芯、寒武 纪、燧原、壁仞、沐曦、景嘉微、海光信息等厂商进展较快。我们认为:AI 服 务器散热需求强烈,行业将逐步采用液冷。数据中心采用传统风冷效率低,针对高功率密度散热场景,液冷技术更加适用和高效。模型:多模 态加 速迭 代,商业应 用逐 步落 地 3 月 4 日,人工智能公司 Anthropic 推出了 Claude 3 系列 AI 模型和新型聊天机器人,比肩ChatGPT4。其中 Claude 3 Opus 多项指标超越 GPT-4、谷歌 Gemini 等模型。我们认为:步入 规 模落 地应用阶段,行业实践步 伐加快。在 技术实力、资金、人才基础等方面具有优势的国内外科技企业正推动大模型的发展,我国通用类、垂直类大模型表现出良好效能。终端:涌现 如雨 后春 笋,AI 设备元 年开 启 我们认为,当前存量智能终端设备中有较多来自 5G 和前几 年的换机,至 2024 年已经来到下一轮换机的时刻,AI 在 C 端的 场景落地将有望成为最好的刺激。建议关注:综合海外巨头在财 报以及产业进展的表现,当前 AI 产业正高速发展,行业核心环节公司的资本支出、业绩贡献均已有体现。考虑到国内厂商在 AI 算力产业链多个环节同 样深度参与,我们认为在未来几年的成长方面具有更高的确定性,考虑经过前期的一波深度回调后,优质公司进入估值洼地,国内算力投资当前时点具备较高的性价比,重点推荐工 业富联、沪电股份、胜宏科 技 等。此外,也 可关注端侧推理芯片、服务器液冷散热等方向。风险提 示 1、AI 行业发展不及预期;2、AI 服务器出货不及预期;3、PCB 下游需求增长不及预期;4、数据中心液冷落地进度不及预期。Table_StockData 行业内重 点 公司推荐 公司代 码 公司名 称 投资评 级 601138 工业富 联 买入 002463 沪电股 份 买入 300476 胜宏科 技 买入 市场表现 对 比图(近 12 个月)资料来源:Wind 相关研究 Table_Report“屏地风雷”系列深 度报告之十六:论面板 龙头的红利价值2024-03-04“屏地风 雷”系列 深度报告 之十五:柔性 OLED拐点已至2024-02-20 海外 AI 进展迅猛,国内算力投资价值正 当时2024-02-19-24%-13%-1%10%2023/3 2023/7 2023/11 2024/3电子元件 沪深300 指数2024-03-15%3TXrHmd4p4JEUVvIiMML7NrzkDSe1RnSOm2svFrHBRVnERUoWM+fIC9Wd1BVmwhiA 请阅读最 后评级 说明和 重要声 明 4/25 行业研究|深度报 告 目录 写在前面.6 需求:云厂商投入不减,推理需求有望上升.6 云厂商:海 外头 部云 厂商 均预 计 2024 年资 本开 支 将增加.6 判断一:AI 服务 器价 值高/算力强,或 挤压 通用 服务 器空间.7 判断二:伴 随模 型完 善成 熟,算 力需 求开 始从 训练 转向推 理.8 供给:AI 芯片出货火热,液冷市场蓬勃发展.10 英伟达:垄 断高 端 AI 算力 芯片.10 判断一:老 牌巨 头竞 争+客 户自研 开发,AI 芯片 竞争 将加剧.11 判断二:AI 服务 器散 热需 求强烈,行 业将 逐步 采用 液冷.12 模型:多模态加速迭代,商业应用逐步落地.14 Claude3:比 肩当前 最强 模型 GPT4,具备 本科 生 水平.14 判断:步入 规模 落地 应用 阶段,行业 实践 步伐 加快.15 应用示 例 文 生视 频:海外 OpenAI 推出 Sora,AI 动 画片 千 秋诗 颂.17 终端:涌现如雨后春笋,AI 设备元年开启.17 AI 手机:大 模型 下沉 手机,加速 端侧 应用 普及.17 AIPC:PC 操 作系 统集 成 AI,推 动人 机交 互不 断进 步.20 AR 眼 镜:已步 入高 速发展 期,有 望成 为最 佳 AI 载体 之一.21 风险提示.23 图表目录 图 1:海外 头部云 厂商季 度 资本开支 及同比 增速(单位:亿美元).7 图 2:2023-2024 年 全球云 厂商高端 AI 服务 器需求 情 况.7 图 3:2020-2027 年 中国算 力规模及 预测.8 图 4:2020-2024 年 全球服 务器整机 出货量 同比增 速.8 图 5:2022-2027 年 中国人 工智能服 务器工 作负载 预测.9 图 6:2021-2023 年 各季度 英伟达收 入拆分 情况.10 图 7:2023 年 数据中心 GPUs 市场份额.10 图 8:英伟 达数据 中心路 线 图.10 图 9:英伟 达芯片 在 GPT-3 175B(1750 亿参数)下的 推理性能.10 图 10:数 据中心 器件热 特 性.13 图 11:液 冷技术 国内外 发 展历程.13 图 12:三 种液冷 技术示 例.13 图 13:2022-2027 年中国 液冷服务 器市场 规模及 预测.14 图 14:2022 年中国 液冷服 务器市场 份额.14 图 15:Claude 3 系列 模型 的 3 个版本.15 图 16:Claude 3 性能基 准 测评与对 比结果.15 图 17:Sora 模 型根据 提示 词生成的 视频作 品截图.17%4 请阅读最 后评级 说明和 重要声 明 5/25 行业研究|深度报 告 图 18:文 生视频 AI 动画 片 千秋诗 颂.17 图 19:全 球新一 代 AI 手 机市场出 货预测.18 图 20:中 国新一 代 AI 手 机市场出 货预测.18 图 21:英 特尔第 一代酷 睿 Ultra 移动 处理器 Meteor Lake.20 图 22:Meteor Lake 新 E 核心更高 的 IPC 增益、AI 加速改进 等.20 图 23:联 想演示 电脑中 的 AI 助手 功能.20 图 24:AI PC 渗透 率预计 在 2027 年达到 60%.20 图 25:虚 拟现实 发展四 个 阶段.21 图 26:部 分消费 级 AR 眼 镜产品推 出时间 表.21 图 27:国 内被称 为“AR 四 小龙”的四家 企业.21 图 28:微 软计划 在 HoloLens 上运行 AI 软件直 接识别 物体.22 图 29:雷 鸟创新 创始人 在 极客公园 创新大 会上的 AI 载体观点.22 表 1:传统 服务器 和 AI 服 务器的示 范性成 本明细.7 表 2:训练 和推理 的区别.9 表 3:GPU、FPGA、ASIC 主要特点.11 表 4:各厂 商推出 的 AI 芯 片情况.12 表 5:国外 大模型 动态.16 表 6:国内 大模型 动态.16 表 7:主要 手机厂 商 AI 大 模型布局 情况.18 表 8:嵌入 式处理 器国内 厂 商在 AI 的 布局.19 表 9:手机 应用处 理器厂 商 在 AI 的布 局.19%5 请阅读最 后评级 说明和 重要声 明 6/25 行业研究|深度报 告 写在前面 当前 AI 产业正处于高速发展 日新月异阶段,我们希望通过本篇报告对行业在需求、芯片供给、模型、应用等多个维度 对 AI 行业做全面的梳理。在当 前时点我们观察到的是,随着训练模型的完善与成熟,大模型逐步应用在云端以及 AI 手机、AIPC 等各类智能终端,可应用的场景逐步多元化,涉及语音、文字、图像、视 频等多模态,我们判断整体算力需求 有望逐步从训练侧导向转向推理侧。在行业加速发展的背景下,芯片、服务器等算力基础设施作为 AI 发展浪 潮的基石,其战略意义以及投资价值愈发重要。需求:云 厂商投 入不减,推理需 求有望上 升 云厂商:海外头 部 云厂商均 预计 2024 年资本开 支将增加 海外头部云厂商 2023Q4 整体资本开支合计 430 亿元,同 比增长 8.9%,环比增长 16.3%;同时,四家厂商均预计 2024 年资本开支将增 加。亚马逊、微软、谷歌、Meta 均在 2023年第四季度财报电话会议上对 2024 年资本支出进行了展望,具体情况如下:亚 马逊:2023Q4 资本开支 146 亿美元,同比-12%,环比+17%。公司预计 24 年资本支出将增加,原因是云业务的区域扩张和增加容量,主要是生成式人工智能项目的相关支出。微 软:2023Q4 资本开 支 97 亿 美元,同比+55%,环比-2%。公司的资本支出近一年加速提升,包括扩大服务器和数据中心规模来满足不断变化的市场需求。展望未来,公司在打造自己服务能力的同时,也将继续利用第三方的协助来满足客户需求,资本支出也将在未来几个季度继续加速增长。谷 歌:2023Q4 资本开 支 110 亿美元,同比+45%,环比+37%。公司 2023Q4 资本支出绝大多数是对技术基础设施的投资,是对公司未来的投资,带来长期增长机会;2024 年全年资本支出将明 显高于 2023 年。Meta:2023Q4 资本开 支 77 亿美元,同比-15%,环比+17%。公司第四季度资本支出主要用于对服务器、数据中心和网络基础设施的投资;公司 24 年底将拥有 35万张 H100 芯片,加上其他 GPU 拥有等效 60 万张 H100 芯片的算力;公司调高2024 年的资本支出,从 300-350 亿美元调整到 300-370 亿美 元,加大对服务器、数据中心的投资。展望 2024 年,微软、谷歌、亚马逊、Meta 四家云厂商 对高端 AI 服务器需求合计将超过 6 成,继续保 持全球 领先地位。根据 Trend Force 的 2 月 预估结果,2024 年全球主要云厂商对高端 AI 服务器(包含搭载 NVIDIA、AMD 或其他高端 ASIC 芯片等)需求量占全球需求比重分别达 20.2%、16.6%、16%及 10.8%,合 计将超过 6 成,居于全球领先位置,其中,又以搭载 NVIDIA GPU 的 AI 服务器占主导。%6 请阅读最 后评级 说明和 重要声 明 7/25 行业研究|深度报 告 图 1:海外头 部云厂 商季度 资本开 支及同比 增速(单位:亿美元)图 2:2023-2024 年全 球云厂 商高 端 AI 服 务器需 求情况 资料来源:彭博,长江 证券研 究所 资料来源:Trend Force,长 江证券 研究 所。注:2023 年为 内环,2024 年预 测 情况为外环 判断一:AI 服 务器 价值高/算力 强,或 挤压通用 服务器空间 AI 服务器在 GPU、智能网卡方面需求及价值 提升显著。从 AI 服务器(英伟达 DGX H100系统)与传统服务器(2x Intel Sapphire Rapids Server)各组 成部分价格对比来看,GPU 从选配成为绝对核心,价值提升 19 万美元,占比增长 至 73%;智能网卡价值量近17 倍增长,成本超越 CPU;CPU 价值量增长较小,但仍然是核心芯片构成。表 1:传统服 务器 和 AI 服 务器的 示范性成 本明细 组 件 Nvidia DGX H100 2x Intel Sapphire Rapids Server 价格(美元)占 比 价格(美元)占比 CPU 5,200 2%1,850 18%8 GPU+4 NVSwitch 基 板 195,000 73%-内存 DRAM 7,860 3%3,930 38%硬盘 NAND 3,456 1%1,536 15%智 能 网 卡 10,908 4%654 6%机箱(外壳、背板、电源)563 0.2%395 4%主板 360 0.1%300 3%散热(散热器+风扇)463 0.2%275 3%电源 1,200 0.4%300 3%组装测试 1,485 1%495 5%固定盈利 42,000 16%689 7%总 成 本 268,495 100%10,424 100%资料来源:Semianalysis,半导 体行业 观察公众 号,长 江证券 研究所。注:各 类服务器 差异很 大,以 上成本 可能会有变化 AI 服务 器需求强 劲增长,DELL 上调业绩 预期。当地时间 2024 年 2 月 29 日,美股服务器制造龙头 DELL 发布最新 季度财报,受益于 AI 服务器需 求激增,其 2024 财年第四季度净利润达 11.6 亿美元,较 去年同期的 6.14 亿美元同比增 长 89%。此外,DELL 上调业绩预期,且大幅上修 2027 年 AI 服务器市场空间至 1520 亿美元。-60%-40%-20%0%20%40%60%80%100%120%140%-50 100 150 200 250 300 350 400 450 50021Q1 21Q2 21Q3 21Q4 22Q1 22Q2 22Q3 22Q4 23Q1 23Q2 23Q3 23Q4亚马逊 微软 谷歌 Meta亚马逊-同比 微软-同比 谷歌-同比 Meta-同比22.1%18.7%15.3%9.2%6.1%8.5%20.1%Microsoft20.2%Google16.6%AWS16.0%Meta10.8%Core Weave6.4%BBAT4.8%Others25.3%MicrosoftGoogleAWSMetaCore WeaveBBATOthers%7 请阅读最 后评级 说明和 重要声 明 8/25 行业研究|深度报 告 一 方面,从 算力规模预测上看,智能算力规模 复合 增速有望显著高于同期通 用算力规 模增长:2022 年中国智能算 力规模达 259.9 每秒百亿亿次 浮点运算(EFLOPS),预计到 2027 年将达到 1117.4 EFLOPS;2022 年 中 国 通 用 算 力 规 模 达 54.5 EFLOPS,预计到 2027 年通用 算力规模将达到 117.3 EFLOPS。2022 至 2027 年中国智能算 力规模 年复合 增长 率将达 33.9%,同期通用算力 规模年复合 增长率为16.6%。另 一方面,从 服务器出货量情况来看,虽 然 2023 年 同比增速为负,但 AI 服 务器出 货强劲,预计 2024 年 AI 服务器出货成长 率及占比均有望达双位数。根据 Trend Force 的 2 月底研究显示,服 务器整机出货趋势今年主要动能仍以美国云厂商为主,但受限于通货膨胀高、企业 融资成本居高不下等因素,整体需求恢复程度仍较低,预计 2024 年全球服务器整机出货量约 1,365.4 万台,年增约 2.05%。同时,市场仍聚焦部署 AI 服务器,AI 服务器出货占比约 12.1%。图 3:2020-2027 年中 国算力 规模 及预测 图 4:2020-2024 年全 球服务 器整 机出货量 同比增 速 资料来源:IDC,长江 证券研 究所 资料来源:Trend Force,长江 证券研 究 所 判断二:伴随模 型 完善成熟,算力 需 求开始从 训练转 向推理 AI 芯片一般可以 理解 为能运行 AI 算法的芯片,能处理 AI 应用中大量计算 任务的模块,AI 大模型算力的 需求 主要来源于训练(training)和推 理(inference)这两环节,区别如下:训练 是指基于一大堆的数据训 练出一个复杂的大模型,训练芯片主要用于机器学习和深度学习,需要有强大的并行处理能力,此外还需要配备空间够大且高效的存储器,以便能够快速地访问和更新数据。因此,训练芯片的设 计注重高度并行化和大规模存储。一般训练场景下,需要支持 FP32、FP64 这样 精度的数据。推理 是指利用训练好的大模型 推理出各种结论,推理芯片主要是在已有模型上执行任务,不需要进行复杂的学习,只需要高效计算并减少功耗。因此,推理芯片比较关注低延时、低功耗,对于计算能力要求相对较低,一般对于推理芯片,只要支持 int8 精度就可以有相对准确 的结果。75155.2259.9414.1497616.6812.51117.439.6 47.7 54.5 59.371.886.1101.2117.30200400600800100012002020 2021 2022 2023E 2024E 2025E 2026E 2027E智能算力规模(基于FP16 计算,EFLOPS)通用算力规模(基于FP64 计算,EFLOPS)3.5%5.4%4.7%-6.0%2.0%-8.0%-6.0%-4.0%-2.0%0.0%2.0%4.0%6.0%8.0%2020 2021 2022 2023 2024E服务器整机出货量-YoY%8 请阅读最 后评级 说明和 重要声 明 9/25 行业研究|深度报 告 表 2:训练和 推理的 区别 区 别 训练 推 理 通 用 性 高,能完 成各种 各样的 学习任 务 不高,只 需要完 成特定 任务即 可 精 度 高 低 性 能 高 低 能 耗 高 低 时 延 高 低 特 点 更注重于 精确通 用 专注于特 定任务,直接 反馈结 果给 用户,更注 重用户 体验 资料来源:芯闻路 1 号,长 江证券 研究 所 随着训练模型 的 完善与 成熟,模型和应用产 品逐步进入投产模式,处理推理工作负 载的人工智能服务 器 占比将 随之攀升。2022-2023 年:大模型的兴起推动了训练服 务器的增长速度。IDC 数据显示,我国2023 全年训练工作负载 的 AI 服务器占比达到 58.7%。2024-2027 年:训练模型、应用产品逐步完 善将抬升推理需求。IDC 预计,我国2027 年用于推理 的 AI 服务器 工作负载将达到 72.6%。图 5:2022-2027 年中 国人工 智能 服务器工 作负载 预测 资料来源:IDC,长江 证券研 究所 2023 年 10 月 15 日,优刻得 接受特定对象调研时表示:“整 体来看推理的需求在大量增加,训练端和推理端的比例可能会做到 3:7 或 4:6,所以推理端的量会比训练端更大。”2024 年 2 月 29 日,AMD CTO 及执行副总裁 Mark Papermaster 参加播客节目史无前例:人工智能、机器 学习、技术与初创企业 表示:“我们已经将我们的AI 推理加速器集成到我们的个人电脑中,并在整个 2023 年持 续发货。实际上,今年 SES 已经宣布了我们下一代 AI 加速个人电脑。而且,随 着我们的 Xilinx 产品组合覆盖到嵌入式设备,我们从行业中获得了很多对定制推理应用的需求,这些需求覆盖了广泛的嵌入式应用场景。因此,随着这一趋势的发展,我们将看到更多定制化的计算安装,以满足不断增长的需求。”58.4%41.3%67.7%68.8%70.5%72.6%41.6%58.7%32.3%31.2%29.5%27.4%0.0%20.0%40.0%60.0%80.0%100.0%120.0%2022 2023E 2024E 2025E 2026E 2027E推理 训练%9 请阅读最 后评级 说明和 重要声 明 10/25 行业研究|深度报 告 供给:AI 芯片出 货火热,液冷市 场蓬勃发 展 英伟达:垄断高端 AI 算力 芯片 在 2023 四 季度,英伟达的数 据中心营收达到 创纪录的 184 亿美元,同比增长 409%。英伟达认为,加速计算和生成式 AI 已经达到了引爆点,全球各地的公司、行业和国家的需求正在激增。在 算力需求 急 剧增长的同时,英伟达也近乎 垄断了高端 AI 算力芯片市场。据 IoT Analytics 数据显示,2023 年数 据中心GPU 市场规 模490 亿美 元,同比增长182%,市场迅猛增长主要由英伟达推动,英伟达占据了 2023 年 92%的市场份额,处于绝对领先的地位。图 6:2021-2023 年各 季度英 伟达 收入拆分 情况 图 7:2023 年数据 中心 GPUs 市 场份额 资料来源:NVIDIA,长江 证券研 究所 资料来源:IoT Analytics,长江 证券研 究所 根据英伟达的 数 据中心 产品路线图,展示了英伟达面 向人工智能市场的产 品规划,计划在 2024 年推 出 H200、B100 等多款 GPU。英伟达正计划增 加面向数据中心市场的产品种类,推出多款面向 AI 计算和 HPC 的产品,让不同的客 户可以有针对性购买产品,降低购买芯片难度。通过架构图可以看到,未来英伟达将会对基于 Arm 架构的产品和基于 x86 架构的产品分开。图 8:英伟达 数据中 心路线 图 图 9:英伟达 芯片 在 GPT-3 175B(1750 亿参数)下的 推理性 能 资料来源:Serve The Home,长 江证券 研究所 资料来源:NVIDIA,长江 证券研 究所 83%61%31%11%14%171%279%409%0%50%100%150%200%250%300%350%400%450%05010015020025021Q1 21Q2 21Q3 21Q4 22Q1 22Q2 22Q3 22Q4 23Q1 23Q2 23Q3 23Q4数据中心(亿美元)游戏(亿美元)其他(亿美元)数据中心-同比92%3%5%NVIDIA AMD Other%10 请阅读最 后评级 说明和 重要声 明 11/25 行业研究|深度报 告 判断一:老牌巨 头 竞争+客户自 研开发,AI 芯 片竞争 将加剧 当前主要的 AI 芯 片分 为 GPU、ASIC、FPGA 三类,目 前 GPU 较为常见。GPU 最初专用于图形处理制作,后逐渐应用于计算。其内部包含大量的运算单元核心,尽管单个核心缓存较小,逻辑功能简单,仅能执行有限类型的逻辑运算操作,但其多核心架构天然适合执行复杂的数学和几何计算,且科学计算领域通用性较高,但功耗较高。而 ASIC芯片在成本、功耗、算力水平等方面都有优势,但前期研发成本高。表 3:GPU、FPGA、ASIC 主要 特点 特 点 GPU FPGA ASIC 定 制 化 程 度 通用型 半定制化 全定制化 成 本 高 中 低 功 耗 高 较低 低 算 力 高 高 高 优 点 计算性能 强、产 品成熟、生态 支持 平均性能 较高、功耗较 低、开 发周 期短、灵活性强 平均性能 强、功 耗低、体积小 缺 点 效率不高、功耗 高 量产单价 高、峰 值算力 较低 前期研发 成本高、灵活 性低、不可 编辑 应 用 场 景 云端训练、云端 推理 云端推理、边缘 端/终 端推理 云端训练、云端 推理、边缘端/终端 推理 代 表 厂 商 英伟达、AMD Intel、Xilinx 华为昇腾、寒武 纪 资料来源:CSDN,艾瑞咨 询,长 江证 券研究所 NVIDIA 的 H100 芯片是目前 市场上算力最高的产品,国外的科技公司也在马不停蹄地推出 AI 芯片,比如 AMD、英 特尔、谷歌等厂商。国内厂商 处于追赶状态,海思、昆仑芯、寒武纪、燧原、壁仞、沐曦、景嘉微、海光信息等厂商进展较快。AMD、Intel 等也 相继推出性能先进的 AI 芯片抢 占市场。英伟达在高端算力芯片市场的领先,刺激了通用 CPU 巨头如 AMD、Intel 等。他们纷纷推出了性能优异的 AI 芯片,如英特尔的 Gaudi2 和 AMD 的 Ml300X GPU,希望能抢占 Al 算力市场,打破英伟达的垄断地位。GPU 作为通用型芯片目前在 AI 芯片市场用量最大,因此 NVIDIA、AMD 这些本就在 GPU 赛道上的厂商有着天然的优势。厂 商自研芯 片 可以确保其供应链的稳定性。英伟达 GPU 供不 应求的现状限制大模型厂商算力的扩容,进而限制研发进度。为了确保芯片供应不受英伟达的掣肘,自研 AI 芯片逐步成为大厂中的重要趋势,云厂商及大模型厂商,如谷歌、亚马逊、微软等都纷纷开始自研算力芯片。ASIC 路线的厂商占了一 大半,ASIC 属于全定制的产品,主流产品包括流 TPU 芯片、NPU 芯片、VPU 芯片 等。谷歌、特斯拉、亚马逊、阿里、百度、华为这些自家业务场景原本就对 AI 芯片存在大量需求的企业,选择 ASIC 在量产制造上的难度是更低的。NVIDIA 的芯片一片难求,各个厂商最优解是自研 AI 芯片。由于使用场景非常具体,专为特定应用程序设计,可以被高度优化,以最大程度地减少功耗,科技公司供自己内部使用,大多选择 ASIC。%11 请阅读最 后评级 说明和 重要声 明 12/25 行业研究|深度报 告 表 4:各厂商 推出 的 AI 芯 片情况 资料来源:芯闻路 1 号,长 江证券 研究 所 厂 商 产 品 芯片 类 型 训练/推 理 制 程 算力 内存 类 型 内存 容量 内存 带宽 功耗 计算 架 构 NVIDIA H100 GPU 通用 4nm 3026 TOPS(INT8)1513 TFLOPS(FP16)51 TFLOPS(FP32)HBM3 80GB 2TB/s 300-350W Hopper AMD MI300 GPU 通用 5nm 383 TFLOPS(FP16)47.87 TFLOPS(FP32)HBM3 128GB 3277GB/s-CDNA3 计算架构 Intel Gaudi2 ASIC 通用 7nm-HBM2E 96GB 2.4TB/s-高通 Cloud Al 100 ASIC 推理 7nm 400 TOPS(INT8)-128GB 134GB/s-谷歌 TPUv3 TPU 通用-HBM 32GB-Meta Artemis ASIC 推理 7nm-亚马逊 AWS Inferentia2 ASIC 推理 4nm FP32、TF32、BF16、FP16、UINT8 HBM 32GB-特斯拉 D1 ASIC 通用 7nm 362 TFLOPS(BF16/CFP8)22.6 TFLOPS(FP32)SRAM 440MB 36TB/s 400W-Graphcore Colossus MK2 GC200 IPU 通用 7nm-900MB-微软 Maia 100-通用 5nm-Cerebras WSE-2-训练 7nm-40GB-华为 异腾 910B ASIC 通用 7nm 640 TOPS(INT8)320 TFLOPS(FP16)-392GB/s 310W 华为自研的“达芬 奇”架构 百度 昆仑 2 代 ASIC 通用-256 TOPS(INT8)128 TFLOPS(FP16)GDDR6 32GB 512GB/s 120W 自研架构昆仑芯 XPU-R 寒武纪 MLU370-X8 ASIC 通用 7nm 256 TOPS(INT8)128 TOPS(INT16)96 TFLOPS(FP16)96 TFLOPS(BF16)24 TFLOPS(FP32)LPDDR5 48GB 614.4GB/s 150W Cambricon MLUarch03 隧原 云燧 i20(邃思 2.5)ASIC 推理 12nm 256 TOPS(INT8)128 TFLOPS(FP16)128 TFLOPS(BF16)32 TFLOPS(FP32)HBM2E 16GB 819GB/s-第二代 GCU-CARA 架构 壁仞 BR100 GPU 通用 7nm 2048 TOPS(INT8)1024 TFLOPS(BF16)256 TFLOPS(FP32)HBM2E 32GB 819GB/s 400W-海光信息 深算一号 DPU 通用-HBM2 32GB 1TB/s 350w-景嘉微 JM9 GPU-1.5 TFLOPS(FP32)-8GB 25.6GB/s 30W-摩尔线程 MTTS3000 GPU 通用-15.2 TFLOPS(FP32)GDDR6 32GB 448GB/s 250W 自研 MUSA 架构 沐曦 曦思 N100 GPGPU 推理-160 TOPS(INT8)80 TFLOPS(FP16)HBM2E 16GB 460GB/s-天数智芯 天垓 100 GPGPU 通用 7nm 295 TOPS(INT8)147 TFLOPS(FP16)37 TFLOPS(FP32)HBM2 32GB 1.2TB/s 250W-阿里平头哥 含光 800 NPU 推理 12nm 825 TOPS(INT8)205 TFLOPS(INT16)-276W 平头哥自研架构 瀚博半导体 SV100 GPU 推理-200 TOPS(INT8)-32GB-云天励飞 DeepEdge 10Max SoC 推理-48 TOPS(INT8)24 TOPS(INT16)8 TFLOPS(FP16)-8W 自研神经网络处理 器NNP400T 判断二:AI 服 务器 散热需求 强烈,行 业将逐步 采用液 冷 数据中心采用 传 统风冷 效率低。传统风冷式空调只能对机房 整体或局部环境温度进行调节,但机柜内部的服务器设备中不同发热器件存在较大的发热功率梯度,例如,CPU 芯片的发热功率远高于其他发热元件,而内存、PSU 等仅占服务器整体功耗的 20%30%。因此,传统风冷式空调会导致不同发热器件出现“过冷”或“过热”的现象,这种无法实 现 发 热 器 件 精 确 制 冷 的 方 式 只 能 通 过 加 大 机 房 空 调 制 冷 量 或 降 低 送 风 温 度 等 方 式 来降低“过热”器件的温度,但这样会引起过多的能源浪费。数据中心主要 的 发热源 集中在服务器芯片,保证其处于合适温度对数据中 心运行至关重要。从数据中心横向及空间维 度分析,数据中心功率密度大约比机柜功率密度低 1 个数%12 请阅读最 后评级 说明和 重要声 明 13/25 行业研究|深度报 告 量级,而机柜的功率密度又比服务器芯片功率密度低约 1 个 数量级,机房功率密度与服务器芯片功率密度相差 2 个数 量级,因此数据中心主要的发热源集中在服务器芯片。图 10:数 据中心 器件热 特性 资料来源:邮电 设计技 术公众 号,长 江 证券研究 所 针对高功率密 度 散热场 景,液冷技术更加适 用和高效。液冷 是一种以液体作为冷媒,利用液体流动将数据中心 IT 设备的内部元器件产生的热量传递到设备外,使 IT 设备的发热部件得到冷却,以保证 IT 设备在安全温度范围内运行的冷却方式。我国液冷技术起步稍晚于国外,但起步后发展迅速,后期与国外发展进程基本同步,并且在液冷规模试点应用方面积累了丰富经验。液冷技术主要 包 括冷板 式液冷、浸没式液冷和 喷淋式液冷 技术三种。当前,冷板式液冷、单相浸没式液 冷 为主要 形式。冷板式液冷是服务器芯片等高发热元件的热量通过冷板间接传递给液体进行散热,低发热元件仍通过风冷散热。浸没式液冷是服务器完全浸入冷却液中,全部发热元件热量直接传递给冷却液,通过冷却液循环流动或蒸发冷凝相变进行散热的一种方式。其中,冷却液循环流动的方式为单相浸没式液冷,冷却液蒸发冷凝相变的方式为相变浸没式液冷,相变浸没式液冷控制更复杂、要求更高。喷淋式液冷是用冷却液直接喷淋芯片等发热单元,通过对流换热进行散热。图 11:液 冷技术 国内外 发展历 程 图 12:三 种液冷 技术示 例 资料来源:电 信运营 商液冷 技术白 皮书,长江 证券研 究所 资料来源:邮电 设计技 术公众 号,长 江 证券研究 所%13 请阅读最 后评级 说明和 重要声 明 14/25 行业研究|深度报 告 液冷服务器正 在 快速迭 代。IDC 预计,2022-2027 年中国液 冷服务器市场年复合增长率将达到 54.7%,2027 年市场规 模将达到 89 亿美元。2023 年 至今,主流 IT 设备厂商均已公开表明将加大研发力度并加快产品迭代速度,尤其重视液冷数据中心系统架构、液冷部件及接口、液冷基础设施、液冷监控系统的标准制定等维度的提升,加速液冷算力规 模 化部 署,优 化液 冷 产业 链生 态 伙伴 协 同发 展,加 速液 冷在 数 据中 心 的规 模化 落 地。2022 年,中国液 冷服务 器数量尚不到服务器 总量的 3%,中 国液冷服务器市 场仍处在早期发展阶段。虽然在多年前已 开始被应用,但更多集中在几家超大规模互联网公司以及国 家 教科 研 项目 中。目 前,液冷 服 务器 整 机市 场竞 争 格局 相对 集 中,从 厂商 销售 额 看,浪潮、超聚变、宁畅位居前三,占据了中国液冷服务器市场七成左右的份额。图 13:2022-2027 年中 国液冷 服 务器市场 规模及 预测 图 14:2022 年中国液 冷服务 器市 场份额 资料来源:IDC,长江 证券研 究所 资料来源:IDC,中商 产业研 究院,长 江证券研 究所 模型:多 模态加 速迭代,商业应 用逐步落 地 Claude3:比肩 当前 最强模型 GPT4,具备本科 生水平 3 月 4 日,人工 智能公 司 Anthropic 推出了 Claude 3 系列 AI 模型和新型聊天机器人,其中包括 Haiku、Sonnet 和 Opus 三种模型,该公司声称,这 是迄今为止它们开发的最快速、最强大的产品。Haiku:是相应速度最快的模型,也是成本最低的选项,在大 多数纯文本任务上的表现仍然相当出色,也同时包含多模态能力(比如视觉)Sonnet:适用于需要平衡性能和成本的场景,它在 纯文本任 务上的表现与后面的Opus 相当,但在成本上更为经 济,适合于那些需要性能稍微
展开阅读全文