资源描述
敬请参阅最后一页特别声明 1 趋势:AI 行业发展带来高算力需求,有望带动服务器液冷快速发展:开年以来 AI 行业不断迎来催化,强化了市场对于实现通用人工智能的信心,预计全球科技领域的巨头将持续向AI 投入资源,加速产业发展进程。英伟达在 GTC 大会上重点介绍了与 B200 芯片和 GB200 芯片配套的液冷技术,英伟达的选择在业内具有风向标意义,这次发布会或将成为液冷发展的重要推动力,将为整体 AI 服务器市场带来划时代的技术革新。在国内,液冷渗透率提升趋势在三大运营商 AI 服务器集采中亦得以彰显,电信 AI 算力服务器(2023-2024年)集中采购中液冷 服务器占比约为 25%,移动 2023 年至 2024 年新型智算中心(试验网)采购(标包 12)的采购中液冷占比超 90%。动 力:政策 端+需求 端双 重驱 动:数据中心耗电量巨大,减排迫在眉睫,政策端全国 PUE 要求 趋严,信 息通 信行 业绿 色低 碳发 展行 动计 划(2022-2025年),要求 到 2025 年,全国 新建 大型、超大 型数 据中 心电 能利 用效 率(PUE)降到 1.3 以下,改建 核心 机房 PUE 降到 1.5 以下。国内 三大 运营 商联 合发 布 电 信运 营商 液冷 技术 白皮 书 推动 液冷 发展。从需 求端 看,AI 行业 快速 发 展加速液冷时代来临。在芯片端,高算力应用场景不断涌现,AI 芯片 迭代 加速,芯片 功耗 逐代 提升。在机 柜端,功率 密度不断提升,科智咨询预计到 2025 年单机柜功率密度将向 20kW 演进,液冷散热势在必行。技 术:液冷 可显 著降 低 PUE,冷 板式 占比90%:根据英特尔绿色数据中心项目负责人介绍,新建数据中心可以通过选择使用一系列先进的软硬件技术,或选址在高纬度地 区,通过 新风 进行 散热。风冷 也可 以使 PUE 值达到 1.3,但是 要进 一步 降低 PUE,或是 数据 中心 选址 在南 方等 年平均气温较高的地方,液冷就可能从可选项变成必选项。液冷可划分为冷板式液冷、浸没式液冷和 喷淋 式液 冷。液冷技术可使数据中心 PUE 达到 1.3 以下。其中 浸没 式液 冷技 术可 以将 PUE 降到 1.2 以下,联合 其他 技术,可以 趋近 于1。目前 液冷 方案 中,冷板 式是 我国 最早 采用 的液 冷方 式,成熟 度较 高,由于 价格 相对 较低、可改 装、对服 务器 自身 要求较低等优势占据主导地位。IDC 数据显示,2023 上半年,中国液冷服务器市场中,冷板式占到了 90%。规模:2027 年中国液冷服务器市场 规模预计将达到89 亿美元:根据 科智 咨询,预计 2023 年中国液冷数据中心市场将实现 53.2%的高 速增 长,市场 规模 将达 到 154 亿元。预计 到 2027年,AI 大模型商用落地,液冷生态趋于成熟,市场规模有望达到 1020 亿元,2022-2027 年 CAGR 达 59%。根据IDC 数据,2022 年中国液冷服务器市场规模达到 10.1 亿美 元,同比 增长 189.9%。2023 上半年中国液冷服务器市场规模 达 到6.6 亿美元,同比增长 283.3%,预计 2023 年全年将达到 15.1 亿美元。IDC 预计2022-2027 年,中国液冷服务器 市 场年复合增长率将达到 54.7%,2027 年市场规模将达到 89 亿美 元。越来 越多 的主 流 IT 设备厂商均已公开表明将加大 研发力度并加快液冷产品迭代速度,未来中国液冷服务器市场预计将持续保持高速增长。液冷可以显著降低数据中心 PUE,政策端和需求端带来双重拉动作用。IDC 预计 2022-2027 年,中国液冷服务器市 场年复合增长率将达到 54.7%,2027 年市场规模将达到 89 亿美 元。当前 AI 行业快速发展背景下,服务器液冷有望 迎 来加速发展。建议关注英维克、同飞股份、佳力图、高澜股份、申菱环境。原材料价格上涨、行业竞争加剧、宏观经济及下游行业波动、AI 发展不及预期、新业务发展不及预期 行业深度研究 敬请参阅最后一页特别声明 2 内容目录 1、趋势:AI 行业发展带来高算力需求,有望带动服务器液冷快速发展.4 2、动力:液冷显著降低数据中心 PUE,政策端+需求端双重驱动.6 2.1.数据中心耗电量巨大,节能存在较大优化空间,政策端驱动推动行业发展.6 2.2.AI 行业发展带来芯片功耗与机柜密度不断增加,液冷散热势在必行.7 3、技术:液冷可显著降低 PUE,冷板式占比 90%.8 4、规模:2027 年中国液冷服务器市场规模预计将达到 89 亿美元.10 5、相关标的.13 英维克(002837.SZ):“端到端、全链条”的平台化布局已成为公司液冷领域重要优势.13 同飞股份(300990.SZ):积极拓展数据中心温控业务,自主研制全链条解决方案.14 申菱环境(301018.SZ):数据中心液冷产品截至 2022 年底累计交付规模超 500MW.14 佳力图(603912.SH):重点推广数据中心节能改造,拥有冷板式及单相浸没式液冷方案.15 高澜股份(300499.SZ):具备冷板和浸没液冷数据中心热管理解决方案,已形成量产规模.16 6、投资建议.17 7、风险提示.17 图表目录 图表 1:英伟达 FY2025 Q1 业绩亮眼.4 图表 2:AI 数据中心液冷解决方案 GB200 NVL72.5 图表 3:中国电信 AI 算力服务器集采.5 图表 4:中国移动新型智算中心服务器集采(标包 12).5 图表 5:2014-2022 年全国数据中心耗电量(左轴)与数据中心耗电量占全国用电量比重(右轴).6 图表 6:电信运营商液冷技术白皮书三年愿景.7 图表 7:Intel 与 NVIDIA 近年来发布产品.8 图表 8:数据中心冷却方式演进.8 图表 9:液冷技术方案对比.9 图表 10:数据中心温控技术比较.10 图表 11:冷板式液 冷系统技术原理.10 图表 12:液冷服务器产业链.11 图表 13:2019-2027 年中国液冷数据中心市场规模.11 图表 14:2019-2027 年中国液冷数据中心市场规模.12 XVCXxOmRnOrQtNsRqNpQmNbRaObRtRpPtRnReRoOsPiNmPrRaQoOzRvPqMuNxNoNxO行业深度研究 敬请参阅最后一页特别声明 3 图表 15:2022 年中国液冷数据中心行业需求结构.13 图表 16:英维克 Coolinside 全链条液冷解决方案.14 图表 17:同飞股份数据中心液冷产品配置.14 图表 18:申菱环境冷板式液冷温控系统.15 图表 19:佳力图受邀参加大湾区数据中心冷却技术与系统设计高峰论坛并展示解决方案.16 图表 20:相关标的估值(截至 2024 年 5 月 24 日收盘价).16 行业深度研究 敬请参阅最后一页特别声明 4 1 AI 2024 年 2 月 15 日,OpenAI 发布人工智能文生视频大模型 Sora,可以根据用户的文本 提示创建最长 60 秒的逼真视频。模型效果远超所有此前文生视频模型。英伟达人工智能研究院首席科学家 JimFan 称“这是视频生成领域的 GPT-3 时刻”。2 月 16 日,谷歌 发 布Gemini 1.5,支持 100 万 token 上下 文窗 口,并在 长上 下文 理解 方面 取得 突破,距去 年12月 Gemini 1.0 发布时间间隔不到 3 个月。开年 以来 AI 行业不断迎来催化,强化了市场 对于实现通用人工智能的信心,预计全球科技领域的巨头将持续向 AI 投入资源,加速产业发展进程。2024 年 2 月 22 日,英伟达发布 Q4 业绩情况。Q4 实现营收 211 亿美 元,高 基数基础上环比增长 22%,同比 大幅 增长 265%,超越 市场 预期 的 204.1 亿美 元,单季 收入 即超 2021 年全年。英伟达 CFO 表示,目前 GPU 的供应正在改善,且需求强劲。并预计下一代产品 的市场需求将远远超过供给水平。2024 年 5 月 22 日,英伟达发布 2025 财年 第 一财季业绩情况,Q1 实现收入 260 亿美元,高于市场预期的 246.9 亿美元,其中数据 中 心收入 226 亿美 元,高于 市场 预期 的 211.3 亿美元。Q1 毛利润率为78.9%,高于 预期 的 77%。英伟达预计第二财季收入为 280 亿美 元,将高 于市 场预 期的 268 亿美 元。英伟 达业 绩持 续超市 场预 期,印证 了AI 行业发展的高持续性。AI 行业的持续快速发展将带来高算力需求,进而带动机柜数量和单机柜功率双增长,数据中心正朝高密度方向发展。随着单机柜功率密度增大,传统 风冷散热方式将逐渐无法满足散热需求,服 务 器液 冷有 望迎 来加 速发 展。图表1:英伟达 FY2025 Q1 业绩亮眼 来源:英伟达官网,国金证券研究所 3 月 19 日在 GTC 大会上,英伟达重磅发布 B200 芯片与 GB200 芯片,与前代 H100 相比,B200 的算力提升了 6 倍。GB200 芯片则是基于 B200 GPU 打造的 AI 加速 平台,由两 个 B200 GPU 和一个 Grace CPU 组成。在具 有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而训练速度是 H100 的 4 倍。随着 GPU 性能的提升,功耗也在 不 断 增加,大会上英伟达还重点介绍了与 B200 芯片和 GB200 芯片配套的液冷技术。通过液冷散热方 式的 改变,英伟 达实 现了 高密 度部 署和 提升 散热 效率 的目 标,使得 单机 柜的 功率 能够达到较高的水平。英伟达 CEO 黄仁 勋曾 提到,坚信 浸没 式液 冷技 术就 是未 来指 标,将带 动整片散热市场迎来全面革新。英伟达的选择在业内具有风向标意义,这次发布会或将成为液冷发展的重要推动力,将为整体 AI 服务器市场带来划时代的技术革新。工业富联旗 下子公司鸿佰科技出席了英伟达 2024 GTC AI 大会,展出与英伟达合作开发的新一代 AI 服务器与液冷机柜等多项技术和解决方案。会上,鸿佰科技展出多种 AI 服务器产品,包括Ingrasys NVIDIA MGX 服务器、搭配液冷解决方案的 AI 加速器 GB6181、AI 数据 中心 液 冷解决方案 GB200 NVL72、ES2100 储存系统等。dSnO5mhKTdEADQcamoUosZKvZxvDHl7CnYBIQwX/6MNbUbxZaNaqU7e002i1/ne5 行业深度研究 敬请参阅最后一页特别声明 5 图表2:AI 数 据中 心液 冷解 决方 案 GB200 NVL72 来源:工业富联公众号,国金证券研究所 在 国 内,液冷 渗透 率提 升趋 势在 三大 运营 商 AI 服务器集采中亦得以彰显。2023 年 8 月 21日,中国 电信 发布 AI 算力服务器(2023-2024 年)集中采购项目集中资格预审公告。集采的产品品类分别为训练型风冷服务器(I 系列)、训练型液冷服务器(I 系列)、训练型风冷 服务 器(G 系列)、训练 型液 冷服 务器(G 系列),共计 4175 台,其中 风冷 型服 务器3121 台,液冷型服务器 1054 台,液冷服务器占比约 25%。2024 年 1 月 17 日,中国移动通信有限公司发布 中国移动 2023 年至 2024 年新 型智 算中 心(试 验网)采购(标 包 12)招标 公告。采购 人工 智能 服务 器 1250 台及 配套 产品,其中 风冷 型 服务器 106 台,液冷 型服务器 1144 台,液冷服务器占比超 90%。液冷服务器在运营商集采中占比提升。图表3:中国电信AI 算力 服务 器集 采 图表4:中 国 移 动新 型智 算中 心服 务器 集采(标 包 12)来源:C114 通信网,中国电信,国金证券研究所 来源:通信世界网 CWW,中国移动,国金证券研究所 行业深度研究 敬请参阅最后一页特别声明 6 2 PUE+2.1.数据 中心 耗 电量 巨大,节 能存 在较 大优 化空 间,政策 端驱 动推 动行 业发 展 近年来随着 5G、物联 网、云计 算、AI 等数字化技术的发展,数据计算量呈现井喷式增长,配套的数据中心与通信基站投资及建设力度也不断加大。随着数据中心规模不断增大,耗电量也随之剧增。根据国家能源局数据,2022 年我国数据中心耗电量达 2700 亿千瓦时,能耗约占全国总用电量的 3.1%,足以满足上海、深圳两座超大型城市的全年用电需求。IDC 预计到 2024 年我国数据中心耗电量将占到全社会耗电量的 5%以上。中国能源报预计到 2030 年全国数据中心耗电量将接近 4000 亿千 瓦时,数据 中心 减排 迫在 眉睫。中国 电子学会副秘书长洪京一在“算力-电力联合调度 促进数据中心绿色发展研讨会”上表示,“一方面,数据中心用电量大、用电负荷高,在双碳目标下减排任务重;另一方面,新型电力系统建设需要云计算、5G 等高科技支撑,算力调度在提高可再生能源电力应 用比例、降低用能成本、增强电网安全等方面具有重要意义。”图表5:2014-2022 年全国数据中心耗 电量(左轴)与数据中心耗电量占全 国用电量比重(右轴)来源:国家能源局,前瞻产业研究院,中国电信业,开放数据中心委员会,国金证券研究所 全国 PUE 要求 趋 严,数据 中心 温控 设备 需求 将不 断提 升。2022 年 2 月,国家发展改革委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群。按照全国一体化数据中心建设要求,东部数据中心集群平均 PUE 值小于 1.25,西部 则小 于 1.2,同时 数据 中心 平均 上架 率不 低于 65%。2022 年8 月 22 日,工业和信息化部、国家发改委、财政部等 7 部门联合印发信息通信行 业 绿色低碳发展行动计划(2022-2025 年),要求到 2025 年,全国新建大型、超大型 数据中心电能利用效率(PUE)降到 1.3 以下,改建核心机房 PUE 降到 1.5 以下。2023 年 11月,北京 市经 济和 信息 化局 发布 关于 征求 数 据中 心能 源效 率限 额 北京 市地 方标 准意 见的通 知。要求 已建 成并 稳定 运行 一个 自然 年以 上以 及改 扩建 的数 据中 心,其 PUE 值应符合1.3 限定 值的 要求;新建 的数 据中 心,其 PUE 值应符合 1.2 准入 值的 要求;数据 中心 管理者应通过节能技术改造和加强节能管理,使数据中心 PUE 值达到 1.15 先进值的要求(标准适用于数据中心中电子信息设备机房使用面积 3000 及以上或电子信息设备装机总额定功率 5000kW 及以上的数据中心能源效率的计算、控制和考核)。数据中心耗电量的不断攀升使得节能降耗迫在眉睫,同时各省份低 PUE 政策也对数据中心制冷设备提出了更高的要求,推动了数据中心温控设备需求的提升和产品的不断进步。2023 年 6 月 5 日,国内三大运营商联合发布电信运营商液冷技术白皮书。白皮 书 提0%1%1%2%2%3%3%4%05001,0001,5002,0002,5003,0002014 2015 2016 2017 2018 2019 2020 2021 2022%行业深度研究 敬请参阅最后一页特别声明 7 出,当前 新型 应用 日新 月异,AI、智算 纷纷 提前 布局,高密、高算 力等 多样 性算 力基 础设施持 续发 展。计算 型节 点、AI 训练、超算 等高 算力 业务 需求 持续 推升 芯片 性能、功率 与服务器功率不断提高,液冷技术利用液体较高的比热容和换热能力可 以支撑更高功率散热,正在逐步成为新型制冷需求。根据 白皮书 规划,2023 年三大运营商开展技术验证,充分验证液冷技术性能,降低 PUE,储备 规划、建设 与维 护等 技术 能力。2024 年开 展规 模 测试,推进 产业 生态 成熟,降低 全生 命周 期成 本,新建 项目 10%规模试点液冷技术。2025 年开展 规模 应用,共同 推进 形成 标准 统一、生态 完善、成本 最优、规模 应用 的高 质量 发展 格局,2025 年及以后 50%以上项目规模应用液冷技术。图表6:电 信 运营 商液 冷技 术白 皮书 三 年愿 景 来源:电信运营商液冷技术白皮书,国金证券研究所 2.2.AI 行业发展带来芯片功耗与 机柜密度不断增加,液冷散热势在必 行 AI 行 业快 速发 展加 速液 冷时 代来 临。从芯 片端 看,高算 力应 用场 景不 断涌 现,AI 芯片迭代加速,芯片功耗逐代提升。Intel、ADM 等主要 CPU 芯片制造商持续提高芯片的散热设计功耗 TDP,主流系列处理器功耗已达 350-400 TDP/W。NVIDIA 的 H100 GPU 最大功耗可达 700W,B200 性能升级算力较 H100 提升 6 倍,功耗 亦有 较大 幅度 提升。预计 未来 在后 摩尔定律时代下,芯片算力与功耗仍将大幅提升。从机 柜端 看,根据 科智 咨询 中 国液 冷数 据中 心市 场深 度研 究报 告,数据 中心 单机 柜功率密度将持续上升,6-8kW 及 8kW 以上单机柜功率密度将成为目前新建数据中心的主流选择;存量 数据 中心 为提 升市 场竞 争力 也会 通过 升级 改造 提高 单机 柜 IT 负载,预计 到 2025年单机柜功率密度将向 20kW 演进。AI 行业快速发展有望加速这一演进进程。根据 Uptime Institute 发布的2022 年全球数据中心调查报告,以英伟达 DGX A100 服务器为例,其额定功率为 4KW,单机最大功率为 6.5KW,一个标准的 42U 高度的机柜大约可以放 置 5个 5U 高度的 AI 服务器,单机柜总功率超过 20KW。行业深度研究 敬请参阅最后一页特别声明 8 图表7:Intel 与NVIDIA 近年 来发 布 产品 公司 CPU/GPU 型号 发布时间 TDP(W)Intel E5-2609V4 Q1 2016 85 Intel 8160T Q3 2017 150 Intel 8276 Q2 2019 165 Intel 9221 Q3 2019 250 Intel 8368 Q2 2021 270 Intel 8468 Q1 2023 350 Intel 8593Q Q4 2023 385 NVIDIA P100(基于 PCIe)2016.4 250 NVIDIA P100(基于 NVLink)2016.9 300 NVIDIA V100 PCle 2017.5 250 NVIDIA V100 SXM2 2017.5 300 NVIDIA A100 SXM 2020.5 400 NVIDIA H100 SXM 2022.3 700 来源:Intel 官网,NVIDIA 官网,国金证券研究所 目前数据中心基础设施的制冷方式主要有风冷和液冷两种方式。传统数据中心的散热方式为风 冷,即使 用空 气作 为冷 媒,对服 务器 的发 热部 件进 行换 热,带走 热量 的技 术。传统 风冷技术散热的上限一般为单机柜 20kw。伴随 高密 应用 场景 增加 以及 IT 部署 密度 提升,数据中心需要采用更加高效的散热方式,液冷通过用高比热容的液体取代空气作为热量传输的媒 介,直接 或间 接接 触发 热器 件,散热 效率 高,能够 最大 程度 满足 数据 中心 高效 散热 需求。图表8:数 据 中 心冷 却方 式演 进 来源:中国液冷数据中心发展白皮书 2020,国金证券研究所 3 PUE 90%液冷技术类型根据冷却液和发热设备接触换热方式的不同,可划分为冷板式液冷、浸没式液冷和喷淋式液冷。1)冷板式液冷通过把冷板与发热器件紧密固定,将发热器件的热量传导给冷板中的冷 却行业深度研究 敬请参阅最后一页特别声明 9 液,并将 冷却 液中 的热 量运 输至 后端 冷却。液冷 数据 中心 应用 场景 中,冷板 式液 冷对 于服务器芯片组件及附属部件改动较小,主要途径为加装液冷模块,采用集中式或分布式CDU供液 Manifold 分液,对芯片、内存等部件进行精准制冷。根据冷板的不同,非接触式液冷可分为局部冷板和全覆盖冷板。局部冷板仅支 持核心部件散热,具有与传统机房兼容性好的特点,但需要风冷解决其他部件散热问题;全覆盖冷板覆盖所有部件,但由于部分 部件可 插拔、形态 非标,存在 技术 难题,可进 行一 体化 设计,所有 元器 件附 着于 主板,从而实现全覆盖冷板散热。2)浸没 式液 冷是 服务 器完 全浸 入冷 却液 中,全部 发热 元件 热量 直接 传递 给冷 却液,通过冷却液循环流动或蒸发冷凝相变进行散热的一种方式。其中,冷却液循环流动的方式为单相浸没 式液 冷,冷却 液蒸 发冷 凝相 变的 方式 为相 变浸 没式 液冷,相变 浸没 式液 冷控 制更 复杂、要求更高。3)喷淋式液冷和发热器件直接接触,依靠泵压或重力 驱动,向发热设备自上而下精准 喷淋,吸收 并带 走热 量,排走 的热 流体 与外 部环 境冷 源进 行热 交换,冷却 液无 相变。喷淋 式液冷的冷却液需具备绝缘导热、抗氧化性等特点,不发生相变,但在喷淋过程中存在液体飘逸和挥发问题,应用成本较高,且不适合高密度服务器和超大规模数据中心。图表9:液 冷 技 术方 案对 比 对比项 冷板式液冷 浸没式液冷 喷淋式液冷 接触形式 冷却液不接触发热体,采用 导 热 板 传热 冷却液浸泡发热体 冷却液喷淋发热体 建设成本 主要成本在换热系统和冷却 系 统,成本适中 冷却液用量较多,与冷板式相比,成 本高 通过改造机柜增加必须增加装置,成本较小 服务器改造成本 需要定制冷板,成本高 基本无需改造,成本较低 改动小,成本中等 运维成本 运维成本低 运维成本适中 运维成本适中 冷却液 冷却液用量小,要求低 冷却液使用量大,对冷却液安全性要 求高 冷却液用量适中,要求高 服务器兼容性 根据服务器定制冷板,兼容所有机器 根据冷却液不同,需进行兼容性测试 根据冷却液不同,需进行兼容性测试 空间利用率 较高 中等 中等 噪音程度 较低 低 较低 环境影响 无 冷却液相变过程可能会导致气体蒸发 外散 冷却液雾滴和气体可能散发到机箱外 冷却效果 较好 优秀 优秀 使用场景 无限制 有限制 有一定限制 应用程度 目前应用最广泛 适用于对功率密度节能性要求较高的 大型数据中心 不适合高密度服务 器和 超大 规 模 数 据中心,现阶段落地应用相对较少 主流供应商 超聚变、浪潮 曙光数创 广东合一 来源:科智咨询,国金证券研究所 风冷采用气体作为导热媒介,其导热能力远远弱于液体,降低 ICT 设备能耗的能力弱于液冷。另外 由于 侧重 于对 机房 整体 环境 温度 管理,为了 保证 不出 现局 部过 热,风冷 通常 需要提供 冗余 制冷,导致 风冷 能耗 较大。根据 英特 尔绿 色数 据中 心项 目负 责人 介绍,新建 数据中心可以通过选择使用一系列先进的软硬件技术,或选址在高纬度地区,通过新风进行散热,风冷 也可 以使 PUE 值达到 1.3。但要 进一 步降 低 PUE,或是 数据 中心 选址 在南 方等 年平均气温较高的地方,液冷就可能从可选项变成必选项。液冷技术的高效制冷效果有效提升了服务器的使用效率和稳定性、延 长服 务器 寿命,同时 占地 面积 小、系统 布置 改造 灵活,使数据中心在单位空间布置更多的服务器,提高数据中心运算效率。根据中国储能网数据,液冷技术相对于风冷而言约可节约 20%的空 调电 能,同时 因取 消服 务器 内部 风机,IT 部分电能可节省 13 25,总体 的节 能效 果在 40 以 上。液体 比热 容不 受海 拔与 气压 影响,可以保持较高的散热效率,保证数据中心在高海拔地区的运行效率和性能。以液体为载体,可以直接通过热交换接入楼宇采暖系统和供水系统,满足附近居民的供暖、温水供应等需求,为数 据中 心创 造了 附加 价值。液冷 技术 可以 满足 2.7-30kW/机柜的数据中心散热需求,行业深度研究 敬请参阅最后一页特别声明 10 解决超高热流密度的散热问题,因此液冷数据中心基础设施的快速发展是必然趋势。液冷技术可使数据中心 PUE 达到 1.3 以下。其中浸没式液冷技术可以将 PUE 降到 1.2 以下,联合其他技术,可以趋近于 1。图表10:数 据 中 心温 控技 术比 较 性能 指标 风冷 冷板式 浸没式 能耗 PUE 1.6 1.3 以下 1.2 以下 数据中心总能耗单节点均摊 1 0.67 0.58 成本 数据中心总成本单节点均摊(量产后)1 0.96 0.74 占地面积 功率密度(kw/机柜)10 40 200 主机房占地面积比例 1 1/4 1/20 CPU 核温()85 65 65 机房环境 温度、湿度、洁净度、腐蚀性气体(硫化物、盐雾)要求高 要求高 要求低 来源:前瞻产业研究院,国金证券研究所 目前液冷方案中,冷板式是我国最早采用的液冷方式,成熟度较高,由于价格相对较低、可改 装、对服 务器 自身 要求 较低 等优 势占 据主 导地 位。IDC 数据显示,2023 上半 年,中 国液冷服务器市场中,冷 板 式 占到 了 90%。整个 冷板 式液 冷系 统可 分为 一次 侧循 环和 二 次 侧循环。其中,一次 侧冷 源可 采用 机械 制冷 系统 和自 然冷 却系 统。机械 制冷 系统 包括 风冷 冷冻水系统和水冷冷冻水系统,可提供 12C-18 的中温冷冻水;自然冷却是在室外气象条件允许 的情 况下,利用 室外 空气 的冷 量而 不需 机械 制冷 的冷 却过 程,自然 冷却 系统 可采 用开式冷 却塔、闭式 冷却 塔和 干冷 器等 设备 实现,可提 供 30以上的冷却水。二次侧液体回路是指从冷量分配单元到机架,通过供回冷却工质歧管和 IT 设备连接,然后再通过歧管返回冷量分配单元的设计。来自二次侧冷却回路的热量通过冷量分配单元的板式热 交换器传递到一次侧冷却回路,最终排放到大气中或被热回收再利用。图表11:冷 板 式 液冷 系统 技术 原理 来源:中国 IDC 圈,绿色数据中心创新实践 冷板液冷系统设计参考,国金证券研究所 4 2027 89 液冷产业生态涉及产业链上中下游,包括上游的产品零部件提供商、中游的液冷服务器提供商及下游的算力使用者。上游主要为产品零部件及液冷设备,包括快速接头、CDU、电磁阀、浸没 液冷 TANK、manifold、冷却 液等 组件 或产 品供 应商。部分 代表 厂商 有英 维克、3M、云酷、竞鼎、诺亚、广东 合一、绿色 云图、同飞 股份、高澜 股份 等。中游 主要 为 液 冷服务 器、芯片 厂商 以及 液冷 集成 设施、模块 与机 柜等。部分 代表 厂商 有华 为、中兴、浪潮、行业深度研究 敬请参阅最后一页特别声明 11 曙光、新华 三、联想、超聚 变、英特 尔等。下游 主要 包括 三家 电信 运营 商,百度、阿里 巴巴、腾讯、京东 等互 联网 企业 以及 信息 化行 业应 用客 户,主要 在电 信信 息、互联 网、政府、金融、交通 和能 源等 信息 化应 用。目前,阿里 巴巴 以单 相浸 没式 液冷 为主 要发 展方 向,其他用户以冷板式液冷试点应用居多。图表12:液 冷 服 务器 产业 链 来源:科智咨询,中国信通院产业与规划研究所,国金证券研究所 近年 来,中国 液冷 数据 中心 市场 快速 发展,保持 30%以上的市场增速。根据科智咨询,2022年,液冷需求迎来一波增长高潮,头部泛互联网企业出于降本增效考量,进行高密部署,同时通过应用液冷技术降低运营成本;基础电信运营商加大液冷技术试点力度,在全国范围内部署 200+液冷数据中心试点项目,拉动液冷市场增速出现较大幅度提升。根据科 智咨询数据,2022 年液冷数据中心市场规模达到 100.5 亿元,同比 增长 47.2%。当前 AI 行业发展如火如荼,产生大量智算需求,带动智算中心建设。智算中心 GPU 服务器单机柜功率密度超过 30kW,传统 风冷 方案 难以 满足 大规 模散 热需 求,液冷 需求 将大 幅提 升。根据 科智咨询,2023 年中国液冷数据中心市场将实现 53.2%的高 速增 长,市场 规模 将达 到 154 亿元。预计到 2027 年,AI 大模型商用落地,液冷生态趋于成熟,市场规模有望达到 1020 亿元,2022-2027 年 CAGR 达 59%。图表13:2019-2027 年中国液冷数据中 心市场规模 来源:科智咨询,国金证券研究所 02004006008001,0001,2002019 2020 2021 2022 2023E 2024E 2025E 2026E 2027E行业深度研究 敬请参阅最后一页特别声明 12 根据 IDC 发布 的 中 国半 年度 液冷 服务 器市 场(2023 上半 年)跟踪 报告 数据 显示,2022年中国液冷服务器市场规模达到 10.1 亿美 元,同比 增长 189.9%。2023 上半年中国液冷服务器市场规模达到 6.6 亿美 元,同比 增长 283.3%,预计 2023 年全年将达到 15.1 亿美 元。IDC 预计,2022-2027 年,中国液冷服务器市场年复合增长率将达到 54.7%,2027 年市场规模将达到 89 亿美元。图表14:2019-2027 年中国液冷数据中 心市场规模 来源:IDC,国金证券研究所 从行业角度来看,泛互联网行业以及泛政府行业目前液冷技术应用最为广泛。2022 年,中国液冷数据中心市场需求中,泛互联网行业液冷数据中心需求规模最大,达到32%。一方面以公有云为代表的应用场景具有高密属性,需要采用更为高效的散热方式;另一 方面,头部企业逐步在自有数据中心中开展液冷技术探索与验证,带来相应需求。泛政府领域需求比例达到 27%,主要 用于 支撑 智算、超算 等高 密场 景,以及 相关 企事 业单 位出 于创 新技术引领考虑的试点项目。电信行业液冷需求占比为 18.5%。电信 运营 商拥 有全 国三 成以 上数据 中心,且老 旧数 据中 心比 例偏 大,主要 出于 降低 能耗 和技 术引 领考 虑,积极 推动 液冷规模 化应 用。自 2017 年,电信 运营 商即 在自 有数 据中 心进 行液 冷试 点,到 2023 年已在全国开展超 200 个试 点项 目,并将 继续 推进 大规 模试 点。金融 行业 发展 至智 慧金 融阶 段,业务发展与 AI 结合紧密,后期智算业务部署将需要应用液冷。此外,教育、能源、制造等领域也逐步开展液冷技术试点应用。从厂商销售额角度来看,2023 上半年中国液冷服 务器市场份额占比前三的厂商是浪潮信息、宁畅和超聚变,占据了七成左右的市场份额。越来越多的主流 IT 设备厂商均已公开表明将加大研发力度并加快液冷产品迭 代速度,未来中国液冷服务器市场将持续保持高速增长。01020304050607080901002022 2023E 2024E 2025E 2026E 2027E行业深度研究 敬请参阅最后一页特别声明 13 图表15:2022 年中国液冷数据中心行业需求 结构 来源:科智咨询,国金证券研究所 5 英维克(002837.SZ):“端 到端、全 链条”的平 台化 布局 已成 为公 司液 冷领 域重 要优 势 在算力设备以及数据中心机房的高热密度趋势和高能效散热要求的双重推动下,液冷技术加速导入。公司对冷板、浸没等液冷技术平台长期投入,2022 年 8 月 Intel 与英维克等 20 家合作伙伴联合发布了 绿色数据中心创新实践:冷板液冷系统设计参考 白皮书。2023 年 7 月 29 日公司作为液冷领域的唯一企业和另外 5 家企业一起在英特尔大湾区科技创新中心开幕典礼上与英特尔签署项目合作备忘录,加快推进液冷解决方案的测试、评估和推广。2023 年 6 月公司作为液冷产业链上游代表厂商受邀出席 电信运营商液冷技术 白皮 书 的发 布。公司 已推 出针 对算 力设 备和 数据 中心 的 Coolinside 液冷机柜及全链条液冷解决方案,相关产品涉及冷源、管路连接、CDU 分配、快换 接头、Manifold、冷板、液冷 工质 等,“端 到端、全链 条”的平 台化 布局 已成 为公 司在 液冷 业务 领域 的重 要核心竞 争优 势。得益 于液 冷需 求的 快速 增长 及英 维克 在液 冷的“全 链条”平台 优势,2023 年来自数据中心机房及算力设备的液冷技术相关营业收入约为上一年度的 4 倍左右。截止 2024 年 3 月公司在液冷链条的累计交付已达 900MW。公司的产品直接或通过系统集成商提供给数据中心业主、IDC 运营商、大型互联网公司、通信 运营 商,历年 来公 司已 为腾 讯、阿里 巴巴、秦淮 数据、万国 数据、数据 港、中国 移动、中国 电信、中国 联通 等用 户的 大型 数据 中心 提供 了大 量高效节能的制冷产品及系统。在一些数据中心建设项目中,公司在向客户提供温控节能系统的同时,还可能根据项目情况提供模块化数据中心系统、数据中心基础设施等整体方案和集成总包服务。32.0%27.0%18.5%10.8%11.7%行业深度研究 敬请参阅最后一页特别声明 14 图表16:英维克 Coolinside 全链条液冷解决方案 来源:英维克官网,国金证券研究所 同 飞 股 份(300990.SZ):积极拓展数据中心温 控业务,自主研制全链条解决方案 公司自成立以来,始终致力于在工业温控领域为客户提供系统解决方案,通过不断丰富和完善 产业 布局,形成 了液 体恒 温设 备、电气 箱恒 温装 置、纯水 冷却 单元、特种 换热 器四 大产品系列。2023 年公司实现归母净利润 1.82 亿元,较上 年同 期增 长 42.69%。目前 公司 积极拓展数据中心温控业务,已开发了液冷 CDU、冷冻 水机 组、风水 换热 器等 数据 中心 用温控产品。2023 年 12 月 12 日,第十八届中国 IDC 产业年度大典(IDCC2023)在 北京 国 家会议中心隆重开幕,公司技术部长刘交通发表了题为“液冷互联,智领未来”的演讲,展示了其最新的液冷 技术成果和智能数据中心温控解决方案等,并荣获了 IDCC2023 颁发的“创 新发 展奖”。公司 自主 研制 的板 式液 冷及 浸没 式液 冷全 链条 解决 方案,通过 搭配 CDU、浸没液冷 TANK、一次 侧冷 源、环形 管路 及 manifold 等模 块,实现 充分 利用 自然 冷源,系统更加安全可靠,同时,可满足高功率密度换热需求,综合 PUE 可达 1.04。根据公司公告,公司 未来 三年 的业 务发 展目 标之 一是:依托 数 据中 心能 效限 定值 及能 效等 级 国家标准 的实 施,拓展 液冷 解决 方案 在数 据中 心温 控领 域的 应用,构建 液冷 平台,推广 多场 景液冷技术的应用,助力数据中心行业绿色 节能发展。图表17:同 飞 股 份数 据中 心液 冷产 品配 置 来源:同飞股份官网,国金证券研究所 申 菱 环 境(301018.SZ):数据中心液冷产品截 至 2022 年 底 累计 交付 规模 超 500MW 行业深度研究 敬请参阅最后一页特别声明 15 公司在数据中心液冷领域产品布局丰富,面向算力需求下的高密数据中心,结合实际应用场景有多种温控解决方案,主要包括高效高密风冷系统、液气(液风)复合双通道系统、液冷 系统 等。历年 来公 司数 据服 务产 品已 广泛 服务 于中 国移 动、电信、联通、华为、腾讯、阿里 巴巴、百度、美团、
展开阅读全文