20240407_长江证券_软件与服务行业算力系列之大厂AI芯片自研:长期降本+供应安全自研AI芯片加速_21页.pdf

返回 相关 举报
20240407_长江证券_软件与服务行业算力系列之大厂AI芯片自研:长期降本+供应安全自研AI芯片加速_21页.pdf_第1页
第1页 / 共21页
20240407_长江证券_软件与服务行业算力系列之大厂AI芯片自研:长期降本+供应安全自研AI芯片加速_21页.pdf_第2页
第2页 / 共21页
20240407_长江证券_软件与服务行业算力系列之大厂AI芯片自研:长期降本+供应安全自研AI芯片加速_21页.pdf_第3页
第3页 / 共21页
20240407_长江证券_软件与服务行业算力系列之大厂AI芯片自研:长期降本+供应安全自研AI芯片加速_21页.pdf_第4页
第4页 / 共21页
20240407_长江证券_软件与服务行业算力系列之大厂AI芯片自研:长期降本+供应安全自研AI芯片加速_21页.pdf_第5页
第5页 / 共21页
亲,该文档总共21页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
行业研究 丨深度报告 丨软件与服务 Table_Title 算力系列 之大厂 AI 芯片自研:长期降本+供应安全,自研 AI 芯片加 速%1 请阅读最 后评级 说明和 重要声 明 2/21 丨 证券研 究报告 丨 报告要点 Table_Summary全球范围内大型互联网企业 和科技公司或将纷纷加速推进 自研 AI 芯片的发展,其背后一方面是基于 AI 高速发展背景下成本优化的考虑,同时也一定程度上摆脱对上游的单一 供应依赖,我们判断随着全球范围内在 AI 算力方向上投入的加大,该趋势有望进一步强化 等。分 析师及 联系人 Table_Author 宗建树 余庚宗 范超 SAC:S0490520030004 SAC:S0490516030002 SAC:S0490513080001 SFC:BQK473%2WUAZuNrMpMmNqOnOtOsNnMaQ8Q8OnPoOsQrNfQmMrNfQrRzR7NpOrNNZpPpNuOmRtO 请阅读最 后评级 说明和 重要声 明 丨证券研究报告丨 更多研报请访问 长江研究小程序 软件与服务 Table_Title2 算力系列之大厂 AI 芯片自研:长期降本+供应安全,自研 AI 芯片加速 行 业研究 丨深度 报告 Table_Rank 投资评 级 看 好丨维 持 Table_Summary2 破局:大厂 发 力 AI 芯片自 研 当前全球 AI 芯片市场 或将迎 来 格局重塑。随着人工智能产业飞轮效应显现,由于大模型对计算能力和数据的高需求,AI 芯 片作为 算力的底层资源将呈现 高速增长。需求暴涨的同时英伟达近乎垄断了 全球 高端 AI 算力芯 片市场,供需格局的失衡或吸引更多厂商参与该市场。各大云计算厂 商 与头部 科技公司逐渐成为新 入局者代表,正纷纷加速推进 自研 AI 芯片。我们认为 背后核心原因在于 上游算力芯片 的高度集中对下游厂商形成掣肘,一方面,供给集中加重客户 对供应链稳定性的担忧,尤其是面临美国制裁的国内互联网大厂;另一方面,英伟达 不断提升 AI 芯片性能,性能的跃升 伴随着价格的高涨,且 AI 对于 算力需求持续提升,对于下游 各大科技大厂 而言 则为高额的成本压力。海外:谷歌 亚马 逊早 有布 局,微 软 Meta 已 有突 破 放眼全球,各互 联网大厂 2023 年自研芯片建 设明显加速,各自 发布最新产品,包括谷歌的 TPU v5p 与 v5e、微软的 Maia 100、亚马逊的 Trainium、Meta 的 MITA v1,但综合性能上较 英伟达 有 一 定差 距,但 当前 有 加速趋 势。分别 来看:谷歌 长 久布局 自 研 TPU,最新 版 本性 能 超越A100;亚马逊坚定自研,CPU&训练芯片&推理芯片齐头并进;微软自研芯片 Maia 100 初步 问世;Meta 自研推理芯片 MTIA 预计 将于 2025 年推出。在互联网大厂自研芯片过程中,博通等厂商为各大型云厂商提供定制 AI ASIC。国内:美国 制裁 下整 体进 展较慢,亟 待发 力 聚焦国内,过往 进展较 慢,加速拐点已经到 来。受制于基础 技术与美国的制裁,国内整体芯片领域发 展相 比海 外有 较大 差距,互联 网大 厂自 研芯 片布 局缓 慢,百 度/阿里/腾讯 旗下 自研 芯片最新公布年份分别为 2020/2019/2021,且整体性能相比英伟 达特供中国的 H20 有所不足。展望未来,在大模型迭代的硬性需求与美国 对中国高端 AI 芯 片限制持续 加码的供给约束共同影响下,国内大厂自研芯片将是必行之路。百度:基于自研架构迭代,性能提升明显,关注新一代 AI 芯片落地情况;阿里:较早发布自研数据中心芯片含光,平头哥自研芯片方向多个细分领域布局;腾讯自研与投资并进,推理芯片紫霄性能接近英伟达 A10;字节火山引擎已发 布自研视频编解码芯片,AI 芯片值得期待。展望:中期 维度 或将 改变 行业格 局 我们判断随着全球范围内在 AI 算力方向上投入的加大,AI 芯片自研趋势有望进一步强化。国内由于供应链安全问题更加严重,在算力国产化之外,AI 大厂自研 AI 芯片更是逐步提升其更高的战略位置,一方面从供应维度或将改变当前 AI 芯片格 局,另一 方面作为重要的需求方自产自供模式下需求的改变也值得关注,我们认为会影响到产业链上下游相关的各个环节,包括芯片设计、生产、服务器代工等等,其中国内服务器厂商在大厂自研 AI 芯片趋势下,高端 AI芯片供给的改变带来对应产业链供应商受益,建议重点关注大厂自研 AI 芯片产业链。风险提 示 1、行业景气度不及预期风险;2、产能不及预期的风险;3、行业竞争加剧的风险。Table_StockData 市场表现 对 比图(近 12 个月)资料来源:Wind 相关研究 Table_Report AI 产业速递(22):OpenAI 放开用户限 制,飞轮效应值得期待2024-04-03 关键词:量子科技 2024 年第 13 周计算 机行业周报2024-04-01 阶跃星辰发布万 亿参数 MoE 模型,国 产大模型混战如火如荼2024-03-27-51%-33%-15%3%2023/4 2023/8 2023/12 2024/4软件与服务 沪深300 指数上证综合指数2024-04-07%3 请阅读最 后评级 说明和 重要声 明 4/21 行业研究|深度报 告 目录 破局:大厂发力 AI 芯片自研.5 海外:谷歌亚马逊早有布局,微软 Meta 已有 突破.6 国内:美国制裁下整体进展较慢,亟待发力.11 展望:中期维度或将改变行业格 局.17 风险提示.19 图表目录 图 1:英伟 达占据 AI 芯片市 场垄断 地位.5 图 2:英伟 达毛利 率处于 高水 平.5 图 3:国内 外代表 性互联 网厂 商自研 芯片情 况.5 图 4:大厂 自研芯 片与英 伟达 H100 算 力差 距较大.6 图 5:大厂 自研芯 片与英 伟达 H100 带 宽差 距较大.6 图 6:TPU v5p 训 练 大型 LLM 模 型 的速度较 TPU v4 提 升明显.7 图 7:亚马 逊自研 芯片进 展梳 理.8 图 8:AWS 训练芯片 Trainium 架构.8 图 9:AWS 推理芯片 Inferentia2 架构.8 图 10:微 软最新 自研芯 片 Maia 100.9 图 11:Meta 最 新自研 芯片 MTIA.9 图 12:不 同复杂 性条件 下 MTIA 性 能一览.10 图 13:博 通产品 系列.10 图 14:预 计 2024 年博 通 AI 领 域收入 有望突 破 100 亿美 元.11 图 15:博 通与客 户共同 开发 AI 芯片.11 图 16:昆 仑芯企 业发展 历程.12 图 17:百 度自研 芯片产 品系 列及研 发进展.13 图 18:百 度昆仑 2 代 AI 芯片.13 图 19:阿 里布局 芯片自 研历 程.14 图 20:2023 年,阿 里含光 800 云 服务器 全新上 市.14 图 21:阿 里云含 光 800 云服 务器典 型业务 场景.15 图 22:旗 下投资 公司燧 原科 技发展 历程.15 图 23:燧 原科技 旗下核 心产 品.16 图 24:腾 讯自研 推理芯 片紫 霄 C100.16 图 25:字 节最新 自研视 频编 解码芯 片.17 图 26:大 厂自研 AI 芯片 产业 链.18 表 1:海外 各大厂 自研芯 片与 英伟达 H100 参 数对 比.6 表 2:谷歌 历代自 研芯片 参数 情况.7 表 3:国内 各大厂 自研芯 片与 英伟达 H20 参 数对比.11 表 4:腾讯 紫霄 C100 与 英伟 达 T4/A10 性 能对比.16%4w8aFyftcPEJEin7KPUVFV8iCYydMK33bsDsO0TSEcfZP+Z0jYSXQQ28+no4TQVZ8 请阅读最 后评级 说明和 重要声 明 5/21 行业研究|深度报 告 破 局:大 厂发 力 AI 芯 片自 研 我们曾在 报告AI 全球瞭望台:各路厂商纷至沓来,重构 Al 芯片市场中提到当前全球 AI 芯片市场 或将迎来格局 重塑。随着人工智能产业飞轮效应显现,由于大模型对计算能力和数据的高需求,AI 芯 片作为 算力的底层资源将呈现 高速增长。需求暴涨的同时英伟达近乎垄断了 全球高端 AI 算力芯片市场,供需格局的失衡或吸引更多厂商参与该市场。各大云计算厂 商 与头部 科技公司逐渐成为新 入局者代表,正纷纷加速推进自 研 AI 芯片。我们认为 背后核心 原因在于生产要素的高度集中对下游厂商形成掣肘,一方面,供给集中加重 客户对供应链稳定性的担忧,尤其是面临美国制裁的国内互联网大厂;另一方面,英伟达不断提升 AI 芯片性能,性能的跃升 伴随着价格的高涨,对于下游各大科技大厂而言 则为高额的成本压力。因此,出于控制成本、供应链安全等因素的考量,全球各大云计算厂商与头部科技公司正纷纷加速推进自研 AI 芯片。本篇报告主要对当前全球大型科技企业布局 AI 芯片情况进 行梳理,供各位投资者参考。图 1:英伟达 占据 AI 芯片 市场垄 断地位 图 2:英伟达 毛利率 处于高 水平 资料来源:IoT Analytics,长江 证券研 究所 资料来源:Wind,长江证券 研究所 图 3:国内外 代表性 互联网 厂商自 研芯片情 况 资料来源:谷歌 官网,微软官 网,亚 马 逊官网,英伟达 官网,36 氪,Anandtech,Trendforce,腾讯新 闻,昆 仑芯官 网,燧原 科技官 网,鹅 厂技术 派,火 山 引擎官网,长江证券 研究所 92%3%5%NVIDIA AMD Other70.87%0%10%20%30%40%50%60%70%80%5 请阅读最 后评级 说明和 重要声 明 6/21 行业研究|深度报 告 海 外:谷 歌亚马逊 早有布 局,微软 Meta 已 有突破 放眼全球,各 互 联网 大 厂 2023 年自研芯片建设明显加速,各自发布最新 产品,包括谷歌的 TPU v5p 与 v5e、微软的 Maia 100、亚马逊的 Trainium、Meta 的 MITA v1,但综合 性 能上较 英 伟达 有 一定差距。以 H100 芯片作为参照进 行对比,其 FP16/BF16 算力分别是谷歌 TPUv5p/微软 Maia100/亚马逊 Trainium 2/Meta MTIA 的 4.3/2.5/3.0/38.7倍,显 存 带 宽 分 别 是 谷 歌 TPUv5p/微软 Maia100/亚马逊 Inferentia 2/Meta MTIA 的1.2/2.1/4.2/4.3 倍。表 1:海外各 大厂自 研芯片 与英伟 达 H100 参数 对比 参 数 谷歌 谷歌 微软 AWS AWS Meta 英伟达 产品名称 TPU v5p TPU v5e Maia 100 Trainium 2 Inferentia 2 MITA v1 H100 SXM 推出时间 2023 2023 2023 2023 2022 2023 2022 产品类型 ASIC ASIC ASIC-ASIC GPGPU 应用场景 训推一体 训推一体 训推一体 训练 推理 训推一体 训推一体 芯片制程 5nm 5nm 5nm-7nm 4nm INT 8 算力-380TOPS 102.4TOPS 3958TOPS FP16/BF16 算力 459TFLOPS 197TFLOPS 800TFLOPS 650 TFLOPS 190 TFLOPS 51.2 TFLOPS 1979 TFLOPS 显存 95GB HBM2e 16GB HBM2e 64GB HBM3-80GB 带宽 2765GB/s 819GB/s 1600GB/s-820GB/s 800GB/s 3.35TB/s 功率-860W-25W 700W 资料来源:谷歌 官网,微软官 网,亚 马 逊官网,英伟达 官网,36 氪,Anandtech,长 江证券 研究所 图 4:大厂自 研芯片 与英伟 达 H100 算力差 距较大 图 5:大厂自 研芯片 与英伟 达 H100 带宽差 距较大 资料来源:谷歌 官网,微软官 网,亚 马 逊官网,英伟达 官网,36 氪,Anandtech,长江证券 研究所 资料来源:谷歌 官网,微软官 网,亚 马 逊官网,英伟达 官网,36 氪,Anandtech,长江证券 研究所 谷歌:长久布 局 自研 TPU,最新版本性能超越 A100。谷歌 自研芯片 TPU 是为加速机器学习定制开发的 ASIC 产品。谷歌较早布局自研芯片,至今已经历 4 轮迭代。初代TPU 于 2016 年 Google I/O 开发者大会正式发布,只能支持 8 位整数运算,仅可应用45919780065019051.2197905001000150020002500TPU v5p TPU v5e Maia 100 Trainium2Inferentia2MITA v1 H100SXM谷歌 谷歌 微软AWS AWS Meta英伟达FP16/BF16 算力(TFLOPS)27658191600820 800343005001000150020002500300035004000TPU v5p TPU v5e Maia 100 Inferentia2MITA v1 H100SXM谷歌 谷歌 微软AWS Meta英伟达带宽(GB/s)%6 请阅读最 后评级 说明和 重要声 明 7/21 行业研究|深度报 告 于推理端;2017 年推出的 TPU v2 具有 256 个芯片数量,同时支持浮点运算,逐步开始应用于训练场景;TPU v3/v4 分别于 2018/2021 年发布,峰值计算性能分别较前一代产品提升 167%/124%。最新一 代 TPU v5 于 2023 年 12 月与 Gemini 1.0 一同推出,具有 TPU v5e、TPU v5p 两款产 品,v5e 成本效益比最显著,而 v5p 功能最为强大,主要针对需要大规模计算能力的任务,相较于 TPU v4,TPU v5p 训练大型 LLM 模型的速度提升 2.8 倍、训练嵌入密集模型的速度较 TPU v4 快 1.9 倍。Google 旗下大模型Gemini 便是采用 TPU 进行训练与服务。表 2:谷歌历 代自研 芯片参 数情况 参 数 单位 TPU v1 TPU v2 TPU v3 TPU v4 TPU v5e TPU v5p 发布年份 年 2016 2017 2018 2021 2023 2023 芯片数量 个-256 1024 4096 256 8960 峰值性能(BF16)TFLOPs 92(int8)46 123 275 197 459 显存 GB 8 16 32 32 16 95 带宽 GB/s 34 700 900 1200 819 2765 芯片间互 连带宽 GB/s-1600 4800 互联结构-2D torus 3D torus 2D torus 3D torus 最大功率 W-262W 192W-应用场景-推理 训练&推理 训练&推理 训练&推理 训练&推理 训练&推理 资料来源:Ten Lessons From Three Generations Shaped Google s TPUv4i(Jouppi et al,2021),google 官网,36 氪,CSDN,长 江证券 研究所 图 6:TPU v5p 训练大 型 LLM 模 型的速度 较 TPU v4 提 升明显 资料来源:谷歌 官网,长江证 券研究 所 亚马逊:坚定自研,CPU&训练芯片&推 理芯片齐头并进。2015 年,亚马逊以 3.5 亿美元收购以色列芯片设计初创公司Annapurna Labs,拉开自研 芯片序幕,CPU(Graviton)、训练芯片(Trainium)、推理芯 片(Inferentia)均有产出且不 断更新换代。CPU 端,2018年推出基于 Arm 的 Graviton 一 代,后续不断更新,于 2023 年 11 月发布 Graviton 4,集成 96 个 Arm Neoverse V2 内核,每个内核配置 2MB 的 L2 缓存,加上 12 个 DDR5-%7 请阅读最 后评级 说明和 重要声 明 8/21 行业研究|深度报 告 5600 通道,性能较 Graviton 3 提升 40%。训练芯片端,2020 年 12 月发布第一款训练芯片 Trainium,于 2022 年交 付使用,2023 年推出 Trainium2,相较于第一代 Trainium芯片训练性能提升 3 倍、内存提升 2 倍,扩展性上最高支持 10 万颗 Trainium2 芯片互联,能实现高达 65 exaflops 的算力,此规模下训练一个 3000 亿参数的 LLM 只要数周时间,预计 2024 年可交付使用。推理芯片端,2019 年推出了第 一款推理芯片 Inferentia,自推出以来已经为亚马逊等公司节省超过一亿美元的资本支出,2022 推出 Inferentia2,芯片吞吐量比 Inferentia 1 高四 倍、延迟低十倍。从应用情况看:1)Anthropic 在 2023 年 9 月与亚马逊达成 战略合作,将使用亚马 逊的Trainium 和 Inferentia 芯片进 行未来基础模型的训练与部署,且双方未来将合作开发新版本 Trainium 和 Inferentia 芯 片。2)Finch Computing 利用 亚马逊 Inferentia 芯片完成语言翻译任务,推理成本相较使用 GPU 降低 80%。图 7:亚马逊 自研芯 片进展 梳理 资料来源:亚马 逊官网,长江 证券研 究 所 图 8:AWS 训 练芯 片 Trainium 架构 图 9:AWS 推 理芯 片 Inferentia2 架构 资料来源:亚马 逊官网,长江 证券研 究 所 资料来源:亚马 逊官网,长江 证券研 究 所 微软:自研芯片 Maia 100 初步问世。相较于谷歌和亚马逊,微软在定制服务器、存储和数据中心方面起步较晚,最早于 2019 年启动名为“Athena”的内部自研计划。直到2023 年 11 月的 Ignite 大会,微软首次推出自研芯片 Azure Maia 100,主要用于云端训练、推理以及 Azure 的高负载云端运算。Maia 100 采用台积 电 5nm 制程工艺,晶体管数量达 1050 亿。根据微软官网,Maia 100 最初将为内部提供支持,后续将对外开放。%8 请阅读最 后评级 说明和 重要声 明 9/21 行业研究|深度报 告 微软之外,旗下大模型领先厂商 Open AI 同样有意自研芯片。2024 年 1 月份期间,OpenAI CEO 山 姆 奥 尔特 曼正 在 筹 集 资 金 建设 半 导 体生 产设 施,生 产 用 于人 工 智 能(AI)应用的处理器。图 10:微 软最新 自研芯 片 Maia 100 资料来源:微软 官网,长江证 券研究 所 Meta:自研推理芯片 MTIA 将于 2025 年推出。2020 年,Meta 出于内部工作负载需求自研设计了第一款推理加速器 MTIA,该产品于 2023 年 5 月 正式发布,预计将于 2025年推出。MTIA v1 为深度学习推荐模型定制,采用 TSMC 7nm 工艺制造,运行频率为800MHz,INT8/FP16 计算能力分别为 102.4TOPS/51.2TFLOPS,热设计功耗(TDP)为 25W。从性能对比看,当 前 MTIA 在低复杂性和中等复杂性 模型的处理上具有较高每瓦性能,但在高复杂性模型上距离 GPU 仍有一定差距。根据最新消息,Meta 将新自研第二代 AI 推理芯片 Artemis。图 11:Meta 最新自 研芯 片 MTIA 资料来源:Meta 官网,长 江证券 研究所%9 请阅读最 后评级 说明和 重要声 明 10/21 行业研究|深度报 告 图 12:不 同复杂 性条件 下 MTIA 性能一览 资料来源:Meta 官网,长 江证券 研究所 博通:为各大型云厂商 提供定制 AI ASIC。博通(Broadcom)是一家全球领先的半导体解决方案和基础设施软件产品提供商,半导体板块主要产品主要包括有线和无线通信芯片,其中包括为数据中心客户的人工智能计算应用程序提供定制 ASIC,已成为博通营收的重要增长点;基础设施软件板块主要产品包括大型机软件、网络安全产品等。在 AI芯片领域,博通具备多年人工智能定制芯片研究与开发经验,相关客户包括:1)谷歌:博通一直是谷歌自研 AI 芯片 TPU 的主要制造商。2)Meta:博通为 Meta 第一代内部自研芯片 MTIA AI 加速器提供 定制化服务,根据路透社消息,2023 年 Meta Platforms向博通支付约 5 亿美元,用于 购买设计和工程等组件和服务。此外,2024 年 2 月,Meta宣布博通高管 Hock E.Tan 和 John Arnold 将加 入 Meta 董事 会。从整体收入体量来看,根据博通最新财报会议信息,预计 2024 年与 AI 相关的销售收入规模将来到 100 亿美元,届时 AI 收入占半导体解决 方案业务收入占比将提升至 35%(2023 年为 15%)。图 13:博 通产品 系列 资料来源:博通 官网,长江证 券研究 所%10 请阅读最 后评级 说明和 重要声 明 11/21 行业研究|深度报 告 图 14:预计 2024 年 博通 AI 领域 收入有望 突破 100 亿美元 资料来源:博通 官网,长江证 券研究 所 图 15:博 通与客 户共同 开发 AI 芯片 资料来源:博通 官网,长江证 券研究 所 国 内:美 国制裁下 整体进 展较慢,亟待发 力 聚焦国内,过往进展较 慢,加 速拐点已经到 来。受制于基础 技术与美国的制裁,国内整体芯片 领域 发展 相比 海外 有较 大差距,互 联网 大厂 自研 芯片 布局缓 慢,百度/阿里/腾讯旗下自研芯片最新公 布年份分 别为 2020/2019/2021,且整体性能相比英伟达特 供中国的 H20 有所不足。展望未来,在大模型迭代的硬性需求与美国 对中国高端 AI 芯片限制持续 加码的供给约束共同影响下,国内大厂自研芯片将是必行之路。表 3:国内各 大厂自 研芯片 与英伟 达 H20 参数 对比 参 数 百度 阿 里 腾 讯 英伟达 芯片名 昆仑芯 2 代 含光 800 紫霄 H20 推出时间 2020 2019 2021 2024 芯片制程 7nm 12nm 12nm 4nm 应用场景 训推一体 推理 训练 训推一体 INT8 256TOPS 825TOPS-296TFLOPS FP16 128TFLOPS-120TFLOPS 148TFLOPS 显存 GDRR6 SRAM HBM2e HBM3%11 请阅读最 后评级 说明和 重要声 明 12/21 行业研究|深度报 告 功率范围 150-160W 276W-400W 资料来源:Trendforce,腾 讯新闻,长 江证券研 究所 百度:百度的对自研芯片布局最 早可追溯至 2011 年,最早布局方向为 FPGA AI 加速器,并于 2015 年部署超过 5000 片,后续逐步转变方向,先于 Hot Chips 2017 发布昆仑芯XPU 架构,后在 2018 年正式 启动昆仑芯 AI 芯片产品研发。百度的首款 AI 芯片“昆仑”最早于 2018 年 7 月对外公布、2019 年量产,2020 年在微 亿智造的工业智能质检设备上部署上线并首次大规模应用。2021 年,昆仑芯实现昆仑 2 代量产,并于 2022 年启动互联网及各行业客户交付且取得实际进展,2023 年 9 月,昆仑芯与国芯科技签订战略合作协议,将在边缘 AI 计算、车规功能安全 SoC 等技术领域 展开长期合作。基于自研架构 迭 代,性能提升明显,关注新 一代 AI 芯片落 地情况。昆仑芯 1 代 AI 芯片基于昆仑芯自研架构 XPU 设计,采用 14nm 工艺,针对云端推理场景,支持通用 AI 算法。昆仑芯 2 代设计基础为新 一代自研架构 XPU-R,采用 7nm 工艺,FP16 算力为128TFLOPS,内存带宽 512GB/s,通用计算核心算力相较昆 仑芯 1 代提升 2-3 倍。目前,昆仑芯基于两代通用 AI 计算处理器产品打造产品系列,包 括 K100、K200、R100、R200,RG800 以及 AI 加速器 组 R480-X8 等,满足多种用户需求。新一代昆仑芯片正在研发阶段,值得关注。图 16:昆 仑芯企 业 发展 历程 资料来源:昆仑 芯官网,长江 证券研 究 所%12 请阅读最 后评级 说明和 重要声 明 13/21 行业研究|深度报 告 图 17:百 度自研 芯片产 品系列 及 研发进展 资料来源:昆仑 芯官网,apollo,长江 证券研究 所 图 18:百 度昆 仑 2 代 AI 芯片 资料来源:apollo,长江 证券研 究所 阿里:2019 年 9 月,阿里巴 巴发布首款自研数据中心芯片含光 800,其采用 12nm 制程工艺,集成 170 亿个晶体管,峰值算力为 820TOPS,是一款高性能人工智能推理芯片。含光 800 为阿里史上首款 集成自研架构与自研软件开发套件的 AI 芯片,2023 年,搭载平头哥自研神经网络芯片 AliNPU 的含光 800 云服务器全 新上市,其可广泛应用于图像搜索、场景识别、视频内容识别、自然语言处理等场景,加速 AI 应用落地。其他芯片方面,2021 年推出自研 CPU 倚天 710 并于 2022 年实现 大规模应用;2023 年发布首款 SSD 主控芯片镇岳 510。%13 请阅读最 后评级 说明和 重要声 明 14/21 行业研究|深度报 告 图 19:阿 里布局 芯片自 研历程 资料来源:新智 元,平 头哥官 网,量 子 位,观察 者网,阿里云,长江 证券研 究 所 图 20:2023 年,阿里 含光 800 云 服务器全 新上市 资料来源:阿里 云,长 江证券 研究所%14 请阅读最 后评级 说明和 重要声 明 15/21 行业研究|深度报 告 图 21:阿 里云含光 800 云服务 器 典型业务 场景 资料来源:阿里 云,长 江证券 研究所 腾讯:自研与投 资并进,推理芯片紫霄性能 接近英伟达 A10。2018 年,腾讯投资 AI 芯片初创企业燧原科技,开始布局芯片自研,目前旗下同时拥有 高性能云端训练产品云燧T21/T21 及云端推理产品 云燧 i20,2022 年投资 DPU 创业公 司云豹智能。投资之外,腾讯内部自研同样开始发力,2020 年成立蓬莱实验室,2021 年腾讯数字生态大会上公布 3 款芯片进展,其中 AI 推理 芯片紫霄已经成功流片;截至 2023 年,紫霄已实现量产且在 腾讯头部业务规模部署,可 提供 3 倍的计算加速性能并节省超过 45%的整体成本。从性能参数看,紫霄 C100 性 能接近英伟达 A10,FP16 峰 值算力近 2 倍于英伟达 A4。应用端,紫霄已在腾讯会议上实现应用落地,主要应用于 实时字幕。图 22:旗 下投资 公司燧 原科技 发 展历程 资料来源:燧原 科技官 网,长 江证券 研 究所%15 请阅读最 后评级 说明和 重要声 明 16/21 行业研究|深度报 告 图 23:燧 原科技 旗下核 心产品 资料来源:燧原 科技官 网,长 江证券 研 究所 图 24:腾 讯自研 推理芯 片紫 霄 C100 资料来源:鹅厂 技术派,长江 证券研 究 所 表 4:腾讯紫 霄 C100 与英 伟达 T4/A10 性 能对比 参 数 紫霄 C100 英伟达 T4 英伟达 A10 功耗(W)150 70 150 峰值算力-INT8(TOPS)240 130 250 峰值算力-FP16(TFLOPS)120 65 125 峰值算力-FP32(TFLOPS)30 8.1 31.2 内存带宽(GB/s)819 320 600 资料来源:鹅厂 技术派,长江 证券研 究 所 字节跳动:火山 引 擎已 发布自研视频编解码 芯片,AI 芯片 值得期待。根据公开信息,字节跳动创始人张一鸣最早于 2018 年 5 月表示未来将“继续深 入研究基于硬件视频的编解码或者人工智能识别芯片”。后续于 2022 年 7 月的火山引 擎原动力大会上,字节跳动副总裁杨震原披露自研芯片进展,称已开展自研芯片探索,主要针对视频编解码、云端%16 请阅读最 后评级 说明和 重要声 明 17/21 行业研究|深度报 告 推理加速等场景,相关芯片自研自用并不对外销售。2023 年 8 月,在火山引擎视频云&AIGC 大会上,火山引擎首次发布自研视频编解码芯片。据介绍,这款 ASIC 芯片仅支持视频编解码任务,能实现低延时的高质量转码,压缩效率比行业主流硬件编码器高出30%以上。图 25:字 节最新 自研 视 频编解 码 芯片 资料来源:火山 引擎官 网,长 江证券 研 究所 展 望:中 期维度或 将改变 行业格局 如上文所述,全球范围内大型互联网企业和科技公司或将纷纷加速推进自研 AI 芯片的发展,其背后一方面是基于 AI 高速发展背景下成本优化的考虑,同时也一定程度上摆脱对上游的单一 供应依赖,我们 判断随着全球范围内在 AI 算力方向上投入的加大,该趋势有望进一步强化。而国内由于供应链安全问题更加严重,在算力国产化之外,AI 大厂自研 AI 芯片更是逐步提升其 更高的战略位置,一方面从供 应维度或将改变当前 AI 芯片格局,另一方面作为重要的需求方自产自供模式下需求的改变也值得关注,我们认为会影响到产业链上下游相关的各个环节,包括芯片设计、生产、服务器代工等等,其中国内服务器厂商在大厂自研 AI 芯片趋势下,高端 AI 芯片供给的改变带来对应产业链供应商受益,建议重点关注大厂自研 AI 芯片产业链。%17 请阅读最 后评级 说明和 重要声 明 18/21 行业研究|深度报 告 图 26:大 厂自 研 AI 芯 片产业 链 资料来源:e-works,中商情 报网,长江 证券研究 所%18 请阅读最 后评级 说明和 重要声 明 19/21 行业研究|深度报 告 风 险提示 1、行业景气度不及预期风险。当前生成式 AI 的发展驱动 AI 算 力的需求爆发,但若训练需求和推理需求不及市场的预期,或存在行业景气度不及预期的风险。2、产能 不及 预期的 风 险。当前 海 外 对中国 半导 体领 域制 裁趋 势 趋严,而 半导 体制造领域对海外产业链和产能有较多依赖,若制裁进一步强化,或存在算力芯片无法制造或者制造技术倒退的风险。3、行业竞争加剧的风险。当前国产 AI 算力芯片赛道吸引更多的 企业通过各种方式参与产业发展,或存在行业竞争加剧,竞争格局恶化的风险。%19 请阅读最 后评级 说明和 重要声 明 20/21 行业研究|深度报 告 投资评级说明 行业评级 报告发布日后的 12 个月内行 业股票指数的涨跌幅相对 同期 相关证券市场代表性指数 的涨 跌幅为基准,投资建议的评级标准为:看 好:相对表现优于同期相关证券市场代表性指数 中 性:相对表现与同期相关证券市场代表性指数持平 看 淡:相对表现弱于 同期相关证券市场代表性指数 公司评级 报告发布日后的 12 个月内公司 的涨跌幅相对同期相关证券市场代表性指数的涨跌幅为基准,投资建议的评级标准为:买 入:相对同期相关证券市场代表性指数涨幅大于 10%增 持:相对同期相关证券市场代表性指数涨幅在 5%10%之间 中 性:相对同期相关证券市场代表性指数涨幅在-5%5%之间 减 持:相对同期相关证券市场代表性指数涨幅小于-5%无投资评级:由于我们无法获取必要的资料,或者公司面临无法预见结果的重大不确定性事件,或者其他原因,致使我们无法给出明确的投资评级。相关证券市场 代 表性指 数说明:A 股市场以沪深 300 指数 为基准;新三板市场以三板成指(针对协议转让标的)或三板做市指数(针对做市转让标的)为基准;香港市场以恒生指数为基准。办公地址 Table_Contact上海 武汉 Add/浦东新区世纪大道 1198 号世纪汇广场一座 29 层 P.C/(200122)Add/武汉市江汉区淮海路 88 号长江证券大厦 37 楼 P.C/(430015)北京 深圳 Add/西城区金融街 33 号通泰 大厦 15 层 P.C/(100032)Add/深圳市福田区中心四路 1 号嘉里建设广场 3 期 36 楼 P.C/(518048)%20 请阅读最 后评级 说明和 重要声 明 21/21 行业研究|深度报 告 分析师声明 本报告署名分析师以勤勉的职业态度,独立、客观地出具本报告。分析逻辑基于作者的职业理解,本报告清晰准确地反映了作者的研究观点。作者所得报酬的任何部分不曾与,不与,也不 将与本报告中的具体推荐意见或观点而有直接或间接联系,特此声明。法律主体声明 本报告由长江证券股份有限公司及/或其附属机构(以下简称 长江证券 或 本公司)制作,由长江证券股份有限公司在中华 人 民 共 和 国 大 陆 地 区 发 行。长 江 证 券 股 份 有 限 公 司 具 有 中 国 证 监 会 许 可 的 投 资 咨 询 业 务 资 格,经 营 证 券 业 务 许 可 证 编 号 为:10060000。本报告署名分析师 所持中国证券业协会授予的证券投资咨询执业资格书编号已披露在报告首页的作者姓名旁。在遵守适用的法律法规情况下,本报告亦可能由长江证券经纪(香港)有限公司在香港地区发行。长江证券经纪(香港)有限公司具有香港证券及期货事务监察委员会核准的“就证券提供意见”业务资格(第四类牌照的受监管活动),中央编号为:AXY608。本报告作者所持香港证监会牌照的中央编号已披露在报告首页的作者姓名旁。其他声明 本报告并非针对或意图发送、发布给在当地法律或监管规则下不允许该报告发送、发布的人员。本公司不会因接收人收到本报告而视其为客户。本报告的信息均来源于公开资料,本公司对这些信息的准确性和完整性不作任何保证,也不保证所包含信息和建议不发生任何变更。本报告内容的全部或部分均不构成投资建议。本报告所包含的观点、建议并未考虑报告接收人在财务状况、投资目的、风险偏好等方面的具体情况,报告接收者应当独立评估本报告所含信 息,基于自身投资目标、需求、市场机会、风险及其他因素自主做出决策并自行承担投资风险。本公司已力求报告内容的客观、公正,但文中 的观点、结论和建议仅供参考,不包含作者对证券价格涨跌或市场走势的确定性判断。报告中的信息或意见并不构成所述证券的买卖出价或征价,投资者据此做出的任何投资决策与本公司和作者无关。本研究报告并不构成本公司对购入、购买或认购证券的邀请或要约。本公司有可能会与本报告涉及的公司进行投资银行业务或投资服务等其他业务(例如:配售代理、牵头经办人、保荐人、承销商或自营投资)。本报告所包含的观点及建议 不适用于所有投资者,且并未考虑个别客户的特殊情况、目标或需要,不应被视为对特定客户关于特定证券或金融工具的建议或策略。投资者不应以本报告取代其独立判断或仅依据本报告做出决策,并在需要时咨询专业意见。本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断,本报告所指的证券或投资标的的价格、价值及投资收入可升可跌,过往表现不应作为日后的表现依据;在不同时期,本公司可以发出其他与本报告所载信息不一致及有不同结论的报告;本报告所反映研究人员的不同观点、见解及分析方法,并不 代表本公司或其他附属机构的立场;本 公司不保证本报告所含信息保持在最新状态。同时,本公司对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本公司及作者在自身所知情范围内,与本报告中所评价或推荐的证券不存在法律法规要求披露或采取限制
展开阅读全文
相关资源
相关搜索
资源标签

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642