2022-2023中国人工智能芯片行业研究报告.pptx

返回 相关 举报
2022-2023中国人工智能芯片行业研究报告.pptx_第1页
第1页 / 共42页
2022-2023中国人工智能芯片行业研究报告.pptx_第2页
第2页 / 共42页
2022-2023中国人工智能芯片行业研究报告.pptx_第3页
第3页 / 共42页
2022-2023中国人工智能芯片行业研究报告.pptx_第4页
第4页 / 共42页
2022-2023中国人工智能芯片行业研究报告.pptx_第5页
第5页 / 共42页
点击查看更多>>
资源描述
2022-2023中国人工智能芯片行业研究报告 前 言 随着人工智能新兴产业的高速发展 , 传统的芯片已不能满足人工智能产业对芯片性能及算力等方面的要求 。 因此 , 如何构建出高效的人工智能芯片 , 将芯片技术与人工智能技术有效地结合起来成为当前的热点话题 。 人工智能芯片领域的研究 , 或将科技 发展推向一个更高的阶层 。 亿欧认为 , 人工智能芯片作为人工智能及相关应用的基础与核心 , 必将迎来光明的未来 。 本报告对 AI芯片主流类型进行拆解分析 , 展现中国人工智能芯片的发展现况 , 探究其发展的困境和机遇 , 希望能为广大从业者和各方关注人士提 供有益的帮助 。 本报告核心观点 : 政策扶持 和 市场需求 仍是人工智能芯片发展的主要驱动力 。 据测算 , 2025年 , 中国人工智能核心产业市场规模将达到 4000亿元 , 其 中基础层芯片及相关技术的市场规模约 1740亿元 。 四大类人工智能芯片 ( GPU、 AS IC、 FGPA、 类脑芯片 ) 及系统级智能芯片在国内的发展进度层次不齐 。 用于云端的训练 、 推断等大算力通用 芯片发展较为落后 ; 适用于更多垂直行业的终端应用芯片如自动驾驶 、 智能安防 、 机器人等专用芯片发展较快 。 超过 80%中国人工智能产业链 企 业也集中在应用层 。 未来 , 中国人工智能芯片行业 挑战与机遇 并存 。 技术上 , 由于基础理论 、 关键设备等仍落后与国际一流水平 , 瓶颈较难突破 , 因此 芯片制造 环 节仍有所差距 , 但垂直行业应用的 芯片设计 及 相关企业的数量 上 , 中国仍占据较为优势的地位 ; 在算法上 , 除了创新计算范式的研发 , “ 数据孤 岛 ” 问题也将在政策的指导下得到解决 , 为 AI算法提供更大量 、 更准确的数据集进行学习与训练 ; 应用上 , 消费电子 、 自动驾驶 、 智慧安防 、 机 器人 等仍是较为主流的应用方向 , 政策指导使产业获得更好的 联动性 , 同时 , 人工智能逐步横向往媒体 、 医疗 、 教育等行业渗透与拓展 。 总体来看 , 人工智能芯片的发展仍需基础科学积累和沉淀 , 因此 , 产学研融合 不失为一种有效的途径 。 充分利用企业 、 高校 、 科研机构等多种 不同的教育环境与教育资源 , 将理论知识传授与产业工程实践 、 科研实践相结合 , 培养并积累人工智能领域优质人才 , 维持中国人工智能及芯片 行业的 可持续发展 。 2 中国人工智能芯片行业发展现 状 人工智能芯片行业解 读 1. 技术层 面 2. 应用层 面 3. 典型企 业 二 三 中国人工智能芯片行业的挑战与机 遇 一 目录 C O N T E N T S 一 、 .中国人工智能芯片行业发展现状 研究主体界定 : 面向人工智能领域的芯片及其技术 、 算法与应 用 5 应用层 终端产品 智慧金融 智慧医疗 教育 无人驾驶 营销 智能安防 智能制造 智慧城市 智慧零售 智能家居 技术层 通用技术 自然语言处理 计算机视觉 语音识别 机器学习 算法 机器学习 增强学习 深度学习 技术框架 分布式储存 分布式计算 神经网络 基础层 数据 通用数据 行业大数据 系统 智能云平台 大数据平台 硬件 GPU/FPGA等加速硬件 智能芯片 常用的算法与技 术 等 , 解决人工智能 应 用中的核心计算问题 。 人工智能应用中完 成 大量运算所需的硬件 、 模型训练所需的数 据 及数据处理平台等 。 “ 无芯片不 AI ”, 以 AI芯片为载体实现的算力是人工智能发展水平的重要衡量标准 。 广义的 AI芯片 : 专门用于处理人工智能应用中大量计算任务的模块 , 即面向人工智能领域的芯片均被称为 AI芯片 。 狭义的 AI芯片 : 针对人工智能算法做了特殊加速设计的芯片 。 本报告将对针对狭义的 AI芯片即人工智能算法做特殊加速设计的四种主流芯片 GPU、 ASIC、 FPGA、 类脑芯片以及系统级 AI芯片技术 、 实 现 AI的主流算法及在场景中的应用情况进行解析 。 在场景应用中 , 利用人工智能学科技术 解决生产生活的问题 。 AI芯片的发展历程 : 模仿人脑建立的模型和算法与半导体芯片发展交替进 行 6 神经网络 模型 半导体 芯片 1940 1960 1980 2000 2020 晶体 管 第一块芯 片 感知 器 CPU(MCU) Hop fie ld网 络 FPGA 神经网络芯 片 GPU 新的 DNN算 法 基于深度学习 的 AI芯 片 类脑芯 片 人工智能算法需要在计算机设备上实现 , 而芯片又是计算机设备运作的核心零件 , 因此 AI芯片的发展主要依赖两个领域 : 第一个是模仿人脑建 立的 数学模型与算法 , 第二个是 半导体集成电路 即芯片 。 优质的算法需要足够的运算能力也就是高性能芯片的支持 。 2019年发布 AI芯片行业研究报告认为 , 人工智能于芯片的发展分为三个阶段 : 第一阶段由于芯片算力不足 , 神经网络算法未能落 地 ; 第二阶段芯片算力提升 , 但仍无法满足神经网络算法需求 ; 第三阶段 , GPU和新架构的 AI芯片促进了人工智能的落地 。 目前 , 随着第三代神经网络的出现 , 弥合了神经科学与机器学习之间的壁垒 , AI芯片正在向 更接近人脑的方向 发展 。 人工智能与半导体芯片的发展进程对照 中国政策环境 : 在政策的引导支持下 , 中国人工智能芯片市场持续快速发 展 7 年份 政策 相关内容 2016年 发改委 互联网 +” 人工智能三年行动实施方案 对人工智能芯片发展方向提出多项要求 , 并促进智能终端可穿戴设备的推广落地 。 2017年 国务院 新一代人工知恩感发展规划 重点突破高效能 、 可重构类脑计算芯片和具有计算机成像功能的类脑视觉传感器技术 , 研发具有学 习能力的高效能类脑神经网络架构和硬件系统 , 实现具有多媒体感知信息理解和智能增长 、 尝试推 理能力的类脑智能系统 。 2017年 工信部 关于促进新一代人工智能产业发展三年行 动计划 按照 “ 系统布局 、 重点突破 、 协同创新 、 开放有序 ” 的原则 , 在深入调研基础上研究提出重点发展 智能传感器 、 神经网络芯片 、 开源开放平台等关键环节 , 夯实人工智能产业发展的软硬件基础 。 2019年 关于促进人工智能和实体经济深度融合的指导意 见 把握新一代人工智能的发展特点 , 结合不同行业 , 不同区域特点 , 探索创新成果应用转化的路径和 方法 , 构建数据驱动 、 人机协同 、 跨界融合的智能经济形态 。 2021年 “ 十四五 ” 规划纲要和 2035远景目标纲要 我国新一代人工智能产业将着重构建开源算法平台 , 并在学习推理与决策 、 图像图形等重点领域进 行创新 , 聚焦高端芯片等关键领域 。 来 源 : 公开资料 、 整 理 芯片产业是信息产业的核心部件与基石 。 当前 , 我国芯片高度依赖进口非常不利于国家安全与行业发展 。 因此 , 近年来国家高度关注人工智能 芯片产业的发展 , 发布一系列产业支持政策 , 为人工智能芯片行业建立了优良的政策环境 , 促进行业的发展 。 2021年 , “ 十四五 ” 规划纲要和 2 0 3 5年远景目标纲要 指出 , “ 十四五 ” 期间 , 我国新一代人工智能产业将聚焦 高端芯片 等关键领域 。 从 国家战略 高度为人工智能芯片行业建立了优良的政策环境 。 各地方也根据各自的背景与条件 , 发布促进和扶持人工智能产业发展的方案方针 。 截止 2 0 2 1年 9月 , 包括北京 、 天津 、 上海 、 江苏 、 福建 等 20余省 、 市 、 地区发布人工智能相关政策 , 进一步支持引导人工智能及芯片产业发展 。 2016-2021年中国人工智能芯片相关政策梳理 中国市场环境 : 需求是主要驱动力 , 边缘 /终端芯片市场将持续增长 。 8 来 源 : 工信部 、 公开资料 、 整 理 2018年 12月 , 中央经济会议把人工智能与 5 G、 工业互联网 、 物联网等定义为新型基础设施建设 , 各行业数字化转型加速 , 产生了更多样化 的人工智能产业应用数据和更复杂的深度学习算法需求 。 目前 , 中国人工智能产业链中 , 应用层企业比例超过 80%, 结合场景的 应用落地 是 人工智能产业的主要驱动力 。 根据数据 , 中国人工智能企业的十大应用技术领域中 , 计算机视觉 、 机器人 、 自然语言处理 、 机器学习 、 生物识别 占比居前五 ; 企 业服务、 机器人和通用方案以及安防 、 汽车是 AI应用的主要方向 , 边缘 /终端芯片需求将持续增长 。 市场规模测算 : 市场规模平稳增长 , 产业融合加 速 来 源 : 工信部 、 信通院 、 测 算 中国人工智能核心产业市场规模 ( 单位 : 亿元 ) 2019-2025年中国 AI芯片市场规模 ( 单位 : 亿元 ) 9 人工智能整体市场已从 2 0 2 0年的疫情影响中恢复 , 同时 , 随着技术的成熟以及数智化转型升级 , 内在需求增加 , 中国人工智能核心产业市场 规模将持续平稳增长 , 预计 2 0 2 5年将达到约 4000亿元 。 随着大算力中心的增加以及终端应用的逐步落地 , 中国 AI芯片需求也持续上涨 。 2 0 2 1年疫情缓解 , 市场回暖 , 产生较大增幅 ; 类脑等新型芯 片预计最早于 2023年进入量产 , 因此 2 0 2 4及 2 0 2 5年或有较大增长 , 预计市场规模将于 2 0 2 5年达到 1740亿元 。 CAGR=31.2% CARG=42.9% 中国投资环境 : 资本持续进入 , 交易金额均超亿 元 10 2021年中国人工智能芯片交易事件及金额 ( 截止 2022年 1月 ) 人工智能芯片国内投资事件数 量 人工智能芯片国内投资事件金额 ( 单位 : 亿元 ) 中国人工智能芯片交易事件 ( 部分 ) -截止 2022年 1月 企业 时间 阶段 金额 燧原科技 2021-01-05 C轮 18亿元 沐曦集成电路 2021-01-18 Pre-A轮 数亿元 天数智芯 2021-03-01 C轮 12亿元 壁仞科技 2021-03-30 B轮 数十亿元 智砹芯半导体 2021-04-07 A轮 数亿元 地平线 2021-06-10 C系列 15亿美元 埃瓦智能 2021-07-16 A轮 数亿元 星云智联 2021-07-23 Pre-A轮 数亿元 后摩智能 2021-07-27 A轮 未披露 灵汐科技 2021-08-19 战略投资 未披露 芯启源 2021-11-03 A轮 数亿元 安路科技 2021-11-12 已上市 13.03亿元 瀚博半导体 2021-12-20 B轮 16亿元 中科驭数 2021-12-21 A+轮 数亿元 墨芯 2022-01-12 A轮 数亿元 深聪智 2022-01-11 A轮 数亿元 相较 2020年 , 人工智能领域投资数量有所减少 , 但单笔投资规模呈上升趋势 。 AI芯片产业也持续有资本进入 , 单笔融资金额均超亿元 。 截止 2022年 1月 , 2021年中国人工智能芯片相关领域融资事件共计 92起 , 总金额约 300亿人民币 。 中国人工智能芯片人才市场 : 各领域人才缺口仍较大 , 国家开始重视人才培 养 11 2018年 4月 高等学校人工智能创新行动计划 加快人工智能领域学科建设 , 支持高校在计算机科学与技术学科设置人 工智能学科方向 ; 加强人工智能领域专业建设 , 推进 “ 新工科 ” 建设 , 形成 “ 人工智能 +X” 复合专业培养新模式 ; 加强人工智能领域人才培养 , 加强人才培养与创新研究基地的融合 , 完 善人工智能领域多主题协同育人机制 。 构建人工智能多层次教育体系 。 2020年 1月 “ 双一流 ” 建设高校促进学科融合加快人工智能领域研究生 培养的若干意见 鼓励人工智能龙头企业根据产业技术的最新发展和对人才培养的最新需 求 , 提供试验实践环境 , 对高校教师开展培训 ; 以双聘等灵活聘用方式吸引企业和科研院所优秀人才到高校开展科学研 究和人才培养 ; 依托 “ 双一流 ” 建设高校 , 建设国家人工智能产教融合创新平台 , 鼓励 企业参与共建 , 在资金 、 项目等方面优先支持 。 注 : 人才供需比 =进入该岗位的人才意向数量 /岗位需求数量 人才培养相关政策 AI芯片的实现包含 软件 和 硬件 两个方面 。 既需研究高效率的智能算法 , 同时要研究如何将这些算法结合在半导体硅片上 , 形成最终的产品 。 目前 , 仍有部分企业在人才招聘中遇到不少阻碍 , 人才缺乏 、 成本高 是主要的问题 。 根据工信部人才交流中心发布的数据显示 , 人工智能不 同技术方向岗位的人才供需比均 低于 0.4, 其中人工智能芯片岗位人才供需比为 0.32, 机器学习 、 自然语言处理等技术人才供需仅 0.2。 国家也开始重视人工智能相关人才的培养 , 中央及各地方政府出台了多个人才培养与引进相关政策 ; 在 2 0 1 8 - 2 0 2 1年 , 超过 300所 高校开设 了人工智能专业 ; 部分企业也开始与高校进行合作 , 以 产学研合作 教学模式共同培养综合能力突出的优质人才 。 中国人工智能技术方向岗位供需情况 中国 AI芯片产业图 谱 12 中国人工智能芯片产业图谱 云端芯片 边 /端侧芯片 类脑芯片 IP授权 二 、 人工智能芯片解读 01. 技术层面 基于技术架构 、 部署位置及实践目标的 AI芯片分 类 15 AI芯片一般泛指所有用来加速 AI应用 , 尤其是用在基于神经网络的深度学习中的硬件 。 AI芯片根据其技术架构 , 可分为 GPU、 FPGA、 ASIC及类脑芯片 , 同时 CPU可执行通用 AI计算 , 其中类脑芯片还处于探索阶段 。 AI芯片根据其在网络中的位置可以分为 云端 AI芯片 、 边缘及终端 AI芯片 ; 根据其在实践中的目标 , 可分为 训练 ( training) 芯片 和 推理 ( inference) 芯片 。 云端主要部署训练芯片和推理芯片 , 承担训练和推理任务 , 具体指智能数据分析 、 模型训练任务和部分对传输带宽要求比高的推理任务 ; 边缘 和终端主要部署推理芯片 , 承担推理任务 , 需要独立完成数据收集 、 环境感知 、 人机交互及部分推理决策控制任务 。 技术架构 种类 定制化 程度 可编辑性 算力 价格 优点 缺点 应用场景 GPU 通用型 不可编辑 中 高 通用性较强且适合大规模并 行运算 ; 设计和制造工艺成 熟 并行运算能力在推理端无法 完全发挥 高级复杂算法和通用性人工 智能平台 FPGA 半定制化 容易编辑 高 中 可通过编程灵活配置芯片架 构适应算法迭代 , 平均性能 较高 ; 功耗较低 ; 开发时间 较短 ( 6个月 ) 量产单价高 ; 峰值计算能力 较低 ; 硬件编程困难 适用于各种具体的行业 ASIC 全定制化 难以编辑 高 低 通过算法固化实现极致的性 能和能效 、 平均性很强 ; 功 耗很低 ; 体积小 ; 量产后成 本最低 前期投入成本高 ; 研发时间 长 ( 1年 ); 技术风险大 当客户处在某个特殊场景 , 可以为其独立设计一套专业 智能算法软件 类脑芯片 模拟人脑 不可编辑 高 - 最低功耗 ; 通信效率高 ; 认 知能力强 目前仍处于探索阶段 适用于各种具体的行业 GPU: 从图形处理器到通用数据并行处理 器 16 增加计算资源密 度 提高存储体系性能和功 能 GPU体系的发展趋势 GPU(Graphics Processing Unit)图形处理器 最初是一种专门用于图像处理的微处理器 , 随着图像处理需求的不断提升 , 其图像处理能力也 得 到迅速提升 。 目前 , GPU主要采用数据并行计算模式完成顶点渲染 、 像素渲染 、 几何渲染 、 物理计算和通用计算等任务 。 因其超过 CPU数十 倍 的计算能力 , 已成为通用计算机和超级计算机的主要处理器 。 其中通用图形处理器 GPGPU(GeneralPropose Computing on GPU)常用于数 据 密集的科学与工程计算中 。 英伟达与 AMD仍占据 GPU霸主地位 , 2018年至今 , 国产 GPU也积极发展中 , 已有部分产品落地 。 CPU和 GPU对比 GPU的开发环境 CG(C for Graphics): 为 GPU编程设计的高级绘制语言 , 由 NVIDIA和 微 软联合开发 , 微软版本叫 HLSL, CG是 NVIDIA版本 。 CUDA( ComputeUnified DeviceArchitecture, 统一计算架构 ): 由 NVIDIA所推出的一种集成技术 , 是首次可以利用 GPU作为 C-编译器的开 发环境 。 可以兼容 OpenCL或者自家的 C-编译器 。 ATIStream: AMD针对旗下图形处理器 ( GPU) 所推出的通用并行计 算 技术 。 利用这种技术可以充分发挥 AMDGPU的并行运算能力 , 用于对软 件进行加速或进行大型的科学运算 。 OpenCL(Open Computing Language, 开放计算语言 ): 为异构平台 编 写程序的框架 , 此异构平台可由 CPU, GPU或其他类型的处理器组成 。 增强通信能力和可靠 性 降低功 耗 CPU GPU 浮点计算能力 1 10 运算方式 串行 并行 带宽 内存带宽小 高显存带 宽 延迟 通过大的缓 存保证访问 内存的低延 迟 。 直接访问 显存因此 延时较长 。 GPU计算 适用场景 运算密集 高度并行 控制简单 分多个阶段执行 ALU: 算数逻辑单 元 DRAM: 动态随机存取存储 器 Cache: 高速缓冲存储 器 Control: 控制单 元 ASIC与 FPGA: AI芯片领域 “ 兵家必争之地 ” 17 功能描 述 电路设计与输 入 功能仿 真 综合优 化 综合后仿 真 实现与布局布 线 时序仿 真 板级仿真与验 证 调试与加载配 置 静态时序分 析 ( STA) FPGA 功能描 述 ASIC ASIC设计 中 模块划 分 模块编码输 入 模块级仿真验 证 系统集 成 系统仿真验 证 综 合 等价性检 验 静态时序分 析 物理设计 ( 布线 等 ) 形式验 证 往往要用 到 FPGA进行 原 型验 证 FPGA全称是 Field Programmable Gate Array: 可编程逻辑门阵列 , 是一种 “ 可重构 ” 芯片 , 具有模块化和规则化的架构 , 主要包含可编 程 逻辑模块 、 片上储存器及用于连接逻辑模块的克重购互连层次结构 。 在较低的功耗下达到 GFLOPS数量级的算力使之成为并行实现人工神 经 网络的替代方案 。 ASIC( Application-Specific Integrated Circuit) 是指应特定用户要求和特定电子系统的需要而设计 、 制造的集成电路 。 ASIC从 性能 、 能效 、 成本 均极大的超越了标准芯片 , 非常 适合 AI计算 场景 , 是当前大部分 AI初创公司开发的目标产品 。 芯片设计流程与设计优势对比 可加速上市进程 : 开发时间 较短 , 且无需布局 、 掩膜等 制造步骤 。 非提前支付的一次性开支 : 这些均是 AS IC设计中需要的 开支 。 更简化的设计周期 : 可通过 设计软件处理布线 、 布局及 时序等问题 。 更具预测性的项目周期 : 消 除了潜在的重新设计和晶圆 容量等 。 现场可重编功能 : 可以远程 上传的新比特流 , 通过软件 实现自定义硬件功能 。 完整的定制功能 与 更小 的尺寸 : 由于器件是根 据设计的规格进行生产 的 ( 注 : ASIC芯片 也 分为全定制和半定制 ) 。 更低的器件成本 : 实现 大批量设计与生产 , 批 量越大 , 成本越低 。 高性能 、 低功耗 : ASIC芯片相当于将 AI 算法 “ 硬件化 ” , 特定 算法下能效更高 。 可形成 IP核复用 : 模块 化的设计方法 , 可根据 设计需要进行 IP选取 。 ASIC与 FPGA: 功能与市场定位不同 , 竞争关系不明 显 18 FPGA具有开发周期短 , 上市速度快 , 可配置性等特点 , 目前被大量的应用在大型企业的 线上数据处理中心 和 军工单位 。 AS IC一次性成本远远 高于 FPGA, 但由于其量产成本低 , 应用上就偏向于 消费电子 , 如移动终端等领域 。 目前 , 处理器中开始集成 FPGA, 也出现了可编程的 ASIC, 同时 , 随着 SoC的发展 , 两者也在互相融合 。 价格走势 批量 ASIC&FPGA 技术与商业化对比 性能与能 效 灵活性与部署能力 价格 容 量 FPGA FPGA ASIC ASIC 技术 商业 ASIC&FPGA总体对比 FPGA ASIC 运算速度 较低 , FPGA结构上的通用性必 然导致冗余 ; 另外 , 不不同结构 间的时延也不可忽略 。 较高 , 结构上无特殊限制 , 设计 时也可将特定模块靠近减少延迟 芯片规模 实现相同的功能时 , 需要 更大 的 FPGA 实现相同的功能时 , ASIC的规模 更小 功耗 相同工艺条件下 , 功耗 更大 相同工艺条件下 , 功耗 更小 成本 几乎无开发工具和风险 , 主要成 本都在单片上 。 由于进入生产后硬件不可更改 , 开发工具和流片过程可能产生大 量成本 运行过程 加载配置进入存储器需要时间 可立即运行 产品定位 适用于项目产品需要灵活变动等 方面的产品及产品要求快速占领 市场的情况 适用于设计规模较大 , 或应用成 熟的产品如消费电子等 发展方向 大容量 、 低电压 、 低功耗 、 SoC 更大规模 、 IP复用技术 、 SoC ASIC&FPGA成本对比 基于不同硬件实现方式的 AI芯片 : 系统级芯 片 19 SoC整体架构 BUS CPU 系统控制模 块 各种接 口 外部存储 器 控制 器 EMI 设计 制造 封装 测试 软硬件协同设计 芯片硬件设计 : 包括功能设计 阶段 、 设计描述和行为级验证 、 逻辑综合 、 门级 _x0008_验证 和布局与布线 。 核心挑战 : IP复 用 SoC的优势 SoC产业发展趋势 降低耗电量 : S oC多采用内部讯 号的传输 , 大幅降低功耗 。 减少体积 : 数颗 IC整合为 S oC,有 效缩小电路板上占用的面积 。 丰富系统功能 : 可整合更多的功 能元件和组件 , 丰富系统功能 。 提高速度 : 内部信号传输距离缩 短 , 信号传输效率提升 。 节省成本 : IP复用 , 有效减少研发 成本 , 降低研发时间 。 平台化设计 : 有效提高设计生产 力从而应对由应用面导致的市场 区隔的细化 。 供应链之间合作加强 : IC设计 、 IC制造 、 封装 、 测试 、 半导体设 备 、 IP、 IC设计服务与 EDA业者 等 , 牵连到的各产业部门非常广 泛 , 合作将进一步加强 。 分工将更加明确 : S oC行业或将 分为 IP核设计和系统级集成两部 分 。 流程 技术 与 挑战 与芯片制造流程相同 , 包含晶圆 制造 、 光刻 、 掺杂等流程 。 核心挑战 : 克服不同电路区块 之 间制程相容性问题 , 即迁就微缩 进展较慢的功能区块或在成本上 找到平衡 。 打线为主的传统封装己无法满足 需要 , 晶片级封装 及 I/O高脚位 锡 球封 、 CSP(Chip Scale Pa c ka g ing )等将是未来 S OC封装 技术的主流 。 核心挑战 : 更多的端口数目 。 SoC趋势下 , 测试机台走向 多 功能单一机型 , 测试各种逻辑 、 模拟与存储电路 。 核心挑战 : S oC设计中的 多 样 性 使得验证更加困难 。 在手机 、 可穿戴设备等端设备中 , 很少有独立的芯片 , AI加速将由 SoC上的一个 IP实现 。 SoC(System-on-chip, 片上系统 ) 作为 ASIC设计方法学中的新技术 , 始于 20世纪 90年代中期 , 是以嵌入式系统为核心 , 以 IP复用技术为 基 础 , 集软 、 硬件于一体的 集成芯片 。 在一个芯片上实现信号的传输 、 存储 、 处理和 I/O等功能 , 包含嵌入软件及整个系统的全部内容 。 由于高集成效能 , SoC已经成为微电子芯片发展的必然趋势 。 SoC芯片制造流程 基于不同计算范式的 AI芯片 : 类脑芯 片 20 CPU/GPU/GFPGA/ASIC及 SoC是目前用的较多的 AI芯片 , 此类 AI芯片大多是基于深度学习 , 也就是 深度神经网络 ( DNN) , 以并行方式 进 行计算的芯片 , 此类 AI芯片又被称为 深度学习加速器 。 如今 , 模仿大脑结构的芯片具有更高的效率和更低的功耗 , 这类基于神经形态计算 , 也就是 脉冲神经网络 ( SNN)的芯片为 类脑芯片 。 目前 , 部分企业产品已进入小批量试用阶 段 ,类脑芯片最快将于 2023年 成熟 , 能效比有望较当前芯片提高 2 - 3个数量级 。 DNN SNN 训练方式 需大量数据 单个数据样本 学习方式 监督学习 无监督学习 输入类型 图像帧或数据 阵列 脉冲 时延 高 极低 ( 接近实 时 ) 神经元模型复 杂程度 低 高 功耗 由处理器与储 存器存取决定 由每个事件功 耗决定 分类精度 较高 较低 分类速度 低 高较 研究阶段 较成熟 探索及部分小 规模试用阶段 中国类脑芯片发文数量 DNN与 SNN对比 ( 2014-2022.01) 类脑芯片的 硬件实现方式 忆阻器 : 在紧凑性 、 可靠性 、 耐用性 、 存储 器保留期限 、 可编程状态和能效等方面的特 性 , 有利用成为电子突触器件 。 自旋电子器件 : 其不易失性 、 可塑性及振荡 和随机行为 , 允许创建模仿生物突触和神经 元关键特征的组件 。 光子器件 : 利用半导体放大器中使用的非线 性光学增益介质 , 实现神经形态计算所需的 功能 。 电化学器件 : 具有高精度 、 现行和对称的电 导效应 , 低开关能量和高扩展性 , 使用于 SNN的内置定时机制 。 二维材料 : 包括过渡金属二硫族化合物 、 石 墨烯等 , 可开发成为人工突触 。 . . 21 现在用于深度学习的 AI芯片 ( 包括 CPU、 GPU、 FPGA、 AS IC) 为了实现深度学习的庞大乘积累加运算和并行计算的高性能 , 芯片面积越做越 大 , 带来了成本和散热等问题 。 AI芯片软件编程的成熟度 、 芯片的安全 , 神经网络的稳定性等问题也未能得到很好的解决 , 因此 , 在现有基 础 上进行改进和完善此类 AI芯片仍是当前主要的研究方向 。 最终 , AI芯片将近一步提高智能 , 向着更接近人脑的高度智能方向不断发展 , 并向着边缘逐步移动以获得更低的能耗 。 AI芯片发展 : 向着更低功耗 、 更接近人脑 、 更靠近边缘的方 向 AI芯片功耗 1000 100 1 0 1 0.1 0.01 0 .001 0. 0001 0. 00001 云端 边缘 自供电 、 生物接口等 新型芯 片 物联网 AI芯 片 嵌入式专用 AI芯 片 FPGA AI SoC 车用 ASIC CPU云端 ASIC GPU 人 工 智 能 芯 片 发 展 趋 势 AI芯片 可实现的功能 人类特征 传感器 AI芯 片 感知 : 视觉 、 听觉 、 触觉 等 人 体 类脑芯片及深度 学习芯片 识别 、 分类 、 决策 、 预测 、 分析 、 推 理 人 脑 未来带意识 、 带 自主性的芯 片 情感 、 想象力 、 创 造 力 等 人 性 功耗 ( W ) AI芯片与人类智能 22 AI硬件加速技术已经逐渐走向成熟 。 未来可能更多的创新会来自电路和器件级技术的结合 , 比如 存内计算 , 类脑计算 ; 或者是针对特殊的计 算模式或者新模型 , 比如稀疏化计算和 近似计算 , 对图网络的加速 ; 或者是针对数据而不是模型的特征来优化架构 。 同时 , 如果算法不发生大的变化 , 按照现在 AI加速的主要方法和半导体技术发展的趋势 , 或将在不远的将来达到数字电路的极限 ( 约 1到 10TFlops/W), 往后则要靠 近似计算 , 模拟计算 , 甚至是材料或基础研究上的创新 。 标准芯片 专用芯片 ( ASIC) 多 核 CPU GPU FPGA 数字芯 片 模拟芯 片 超导芯 片 深度学习 神经形态 计算 自然计算 、 仿生计算 、 储备池计 算 量子计算 计算范式及其硬件实现方法 AI芯片发展 : 计算范式创新方向及其硬件实现 存内计算 核心问题 : 传统冯诺伊曼架构中 , 计算与内存是分离的 单元 , 内存主要使用的 DRAM方案性能提升速度远远慢 于处理器速度 , 造成了阻碍性能提升的 “ 内存墙 ” , 直 接在存储内做计算可有效解决 。 实现方法 : 1) 改动存储模块电路 : 优势是容易和现有 工艺进行集成 , 缺点是带来的性能提升有限 ; 2) 引入 新的存储器件 , 实现在存储阵列内完成计算 。 模拟计算 核心问题 : 传统模拟架构通过模数 /数模转换器将模拟信 号与数字表示形式进行相互转换 , 带来 信号损耗 、 功率 消耗 和 时延 。 实现方法 : 在 AI芯片中使用模拟计算技术 , 将 深度学习 算法运算放在模拟域内完成 , 提高能效 。 量子计算 核心问题 : AI计算对大 算力 的需求 。 实现方法 : 完全新型的计算模式 , 理论模型为图灵机 。 从计算效率上 , 由于量子力学叠加性 , 配合量子力学 演 化的并行性 , 处理速度远超传统计算机 , 提供更强算力 。 02. 应用层面 应用概况 : 算力向边缘侧移动 , 逐渐丏注于特殊场景的优 化 随着技术成熟化 , AI芯片的应用场景除了在云端及大数据中心 , 也会随着算力逐渐向边缘端移动 , 部署于智能家居 、 智能制造 、 智慧金融等 领 域 ; 同时还将随着智能产品种类日渐丰富 , 部署于智能手机 、 安防摄像头 、 及自动驾驶汽车等智能终端 , 智能产品种类也日趋丰富 。 未来 , AI计 算将无处不在 。 AI芯片应用领域 云端推理 云端训练 边缘计算 终端设备 可 部 署 芯 片 : GPU/GPU/AS IC 芯片特征 : 高吞吐量 、 高精 确率 、 可编程性 、 分布式 、 可扩展性 、 高内存与带 宽 计算能力与功耗 : 30TOPS, 50W 应用 : 云 /HPC/数据中 心 可 部 署 芯 片 : GPU/GPU/ASIC/FPGA 芯片特征 : 高吞吐量 、 高精 确率 、 分布式 、 可扩展性 、 低延 时 计算能力与功耗 : 30TOPS, 50W 应用 : 云 /HPC/数据中 心 可 部 署 芯 片 : GPU/GPU/ASIC/FPGA 芯片特征 : 降低 AI计算延迟 、 可单 独 部署或与其他设备组合 ( 如 5 G基站 )、 可将多个终端用户进行虚拟化 、 较 小 的机架空间 、 扩展性及加速算 法 计 算 能 力 与 功 耗 : 5 30TOPS, 4 15W 应用 : 智能制造 、 智慧家居 、 智慧交 通等 、 智慧金融等众多领 域 可 部 署 芯 片 : GPU/GPU/ASIC/FPGA 芯片特征 : 低功耗 、 高能效 、 推理任 务为主 、 较低的吞吐量 、 低延迟 、 成 本敏 感 计算能力与功耗 : 8TOPS, 5W 应用 : 各类消费电子 , 产品形态多 样 ; 以及物联网领 域 24 云端 : 当前仍是 AI的中心 , 需更高性能计算芯片以满足市场需 求 当前 , 大多数 AI训练和推理工作负载都发生在公共云和私有云中 , 云仍是 AI的中心 。 在对隐私 、 网络安全和低延迟的需求推动下 , 云端出现了 在网关 、 设备和传感器上执行 AI训练和推理工作负载的现象 , 更 高性能的计算芯片 及新的 AI学习架构将是解决这些问题的关键 。 互联网是云端算力需求较旺盛产业 , 因此除传统芯片企业 、 芯片设计企业等参与者外 , 互联网公司 纷纷入局 AI芯片产业 , 投资或自研云端 AI芯 片 。 AI服 务 深度学习框 架 ( PaaS) 异构计算平 台 AI加速芯 片 “ CPU+加速硬件 ” 异构计 算 GPU 语音识 别 深度学习训练 /推 理 自然语言处 理 计算机视 觉 OpenCL CUDA TensorFlow CNTK Torch 云端 AI芯片框架 2021中国人工智能算力投资行业分布 25 中国云端 AI芯片参与者 芯片设计 芯片代工 IP设计 互联网企业 百 度 昆仑芯一代 /二代芯片 ) 飞桨平 台 阿里巴 巴 含光 NPU AI芯片 /玄铁 CPU 无剑 SoC平 台 字节跳动 、 腾讯 、 快手等也投资或孵化了芯片企业 。 边缘侧 : 数据向边缘下沉 , 随着行业落地市场将有很大增 量 物联网 ( 物理世界 ) 边缘计 算 (桥梁 ) 人工智能 ( 数字世界 ) 大量设 备 要求低延时 、 高带 宽 智能 化 突出本地协同 高计算效 率 实现数据的 存储 、 计算 与应 用 Da ta Da ta 边缘计算的价值 : “ CROSS” C: Connection即联接海量设备 。 支持多个终端用户的虚拟化 。 R: Real-time即业务的实时性 。 可以实现毫秒级的响应时间 , 支持实时服务 。 O: Optimization即数据的优化 。 在边缘积累数据 , 实现数据的感知和归一化 。 S: S m a rt即应用的智能化 。 通过人工智能实现自我优化和策略调整等 。 S: S e c urity即安全与隐私保护 , 数据本地化存储 , 有效保障用户隐私 。 5 G与物联网的发展以及各行业的智能化转型升级 , 带来了爆发式的数据增长 。 海量的数据将在边缘侧积累 , 建立在边缘的数据分析与处理将 大幅度的 提高效率 、 降低成本 。 随着大量的数据向边缘下沉 , 边缘计算将有更大的发展 , IDC预测 , 未来 , 超过 50%的数据需要在边缘侧进行储存 、 分析和计算 , 这就对边缘 侧的算力提出了更高的要求 。 芯片作为实现计算能力的重要基础硬件 , 也将具备更多的发展 。 ABI Research预测 , 2025年 , 边缘 AI芯片市 场 将超过云端 AI芯片 。 在人工智能算法的驱动下 , 边缘 AI芯不但可以自主进行逻辑分析与计算 , 而且可以动态实时地自我优化 , 调整策略 , 典型的应用如 黑灯工厂 等 。 边缘计算在数据处理中的位置 边缘计算发展历程 技术储备阶 段 快速增长 阶 段 行业落地阶 段 边缘计算主要场景 物联 网 边缘计 算 广域接入网络 边缘计 算 边缘 云 多接 入 边缘计 算 工 业 边缘计 算 智慧家庭 /城市 边缘计 算 26 终端设备 : 终端产品类型逐渐多样 , 出货量增加催生大量芯片需 求 根据亿欧数据测算 , 中国自动驾驶行业规模增速在 2 0 2 2年将达到 24%; 智能摄像头产品出货量增速超 15%; 手机 、 平板 、 VR/AR眼镜等智能 产品出货量也均有较大增速 , 催生出大量的智能芯片需求 。 同时 , 智能终端产品种类也逐渐多样 , 智能音响 、 服务 /商用机器人等 消费硬件 、 工业 /数控设备 等工业产品以及 通信产品 等日渐丰富 , 不同产 品类型也对芯片 性能与成本 提出更多的要求 。 27 智能驾 驶 功能需求 : 图像识别 、 数据融合 、 SLAM定位等 、 路径规划功能 。 算力要求 : 20-4000TOPS( L3-L5) 功耗需求 : 中等 , 不过分追求低功 耗 可靠性需求 : 高 成本敏感性 : 低 消费电 子 功能需求 : 图像
展开阅读全文
相关资源
相关搜索
资源标签

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642