2018-2019人工智能行业“互联网+”升级至“AI+”研究报告.pptx

返回 相关 举报
2018-2019人工智能行业“互联网+”升级至“AI+”研究报告.pptx_第1页
第1页 / 共28页
2018-2019人工智能行业“互联网+”升级至“AI+”研究报告.pptx_第2页
第2页 / 共28页
2018-2019人工智能行业“互联网+”升级至“AI+”研究报告.pptx_第3页
第3页 / 共28页
2018-2019人工智能行业“互联网+”升级至“AI+”研究报告.pptx_第4页
第4页 / 共28页
2018-2019人工智能行业“互联网+”升级至“AI+”研究报告.pptx_第5页
第5页 / 共28页
亲,该文档总共28页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
2018-2019人工智能行业“互联网+”升级至“AI+”研究报告,2018 年 11 月 20 日,正文目录,一、,人工智能硬件、算法及应用层均取得突破,行业进入爆发期.5,1.1 经历两次低潮之后人工智能走向务实,并在 2017 年进入第三次爆发期.51.2 行业发展路线之争也由来已久,但“弱”人工智能将是业界最终选择.61.3 硬件、算法以及数据三大要件全面提升,新一代人工智能得以快速发展.7,二、,人工智能将引领全球第四次工业革命浪潮,国内“AI+”战略轮廓已显现.13,2.1 AI 对经济贡献将逐步加速,2030 年将为全球贡献 13 万亿美元增量 GDP.132.2 主要国家均将 AI 作为战略选项,欧盟、中国、日本等已出台发展规划.142.3 受益于国内 AI 巨头及初创企业集群,中、美领先于欧洲处全球第一阵营 .152.4 中央政治局就新一代人工智能进行集体学习,国内“AI+”战略浮出水面.16,三、,国内人工智能产业发展加速,与传统产业融合前景值得期待.17,3.1 国内人工智能产业成长迅速,融合发展具备产业及技术基础但差距明显.173.2 人工智能产品落地更为迅速,“AI+”行业推进较快但应用面仍需拓展.193.3 北京、上海等均在推动 AI 融合战略,工业、宜居社会等领域是推动重点 .213.4 政策、技术、需求三轮驱动,AI 将延续高速增长且深度融合发展将加速 .23,四、,投资建议及风险提示.25,4.1 投资建议.254.2 重点企业.254.3 风险提示.26,图表目录,图表 1图表 2图表 3图表 4图表 5图表 6图表 7图表 8图表 9,人工智能发展历程.6智能的构成以及人工智能分级.7人工智能技术及应用架构.8人工智能相关的通用计算能力演变.9主流 GPU 处理器与 CPU 在深度学习训练时长比较 .9TPU、GPU、CPU 和改进的 TPU 的性能对比.10每 1000 美元可购买的计算能力(每秒计算次数) .102012-2017 年 ImageNet 大规模图像识别竞赛最佳误差率.11AlphaGo 不同版本所需的 GPU/TPU 资源 .11,图表 10 数据输入量及算法模型准确性的关系.12图表 11 2017-2025 年全球数据量预测.12图表 12 人工智能对全球经济的影响模拟(对比 2018 年) .13图表 13 2018-2030 年人工智能对经济影响的净贡献变化(%) .14图表 14 2017 年以来全球主要国家 AI 战略发布情况 .15图表 15 主要国家近年来政策规划及推动机构.15图表 16 全球主要国家人工智能初创企业个数(个).16图表 17 全球人工智能专利地域分布 .16图表 18 习总书记提到的与人工智能融合发展的重点行业.17图表 19 2018 年中、外人工智能各技术领域企业数量对比.18图表 20 国内人工智能生态发展情况 .18图表 21 2018 年中、外人工智能应用行业分布 .20图表 22 国内人工智能垂直行业应用(AI+)以及产品情况.20图表 23 国内各省市人工智能企业数量分布(家).21图表 24 重点省市支持人工智能产业发展重点政策.22图表 25 我国人工智能发展“三步走”目标.23图表 26 2018 年人工智能技术成熟度曲线.24图表 27 2016-2020 年国内人工智能产业规模及增速.24,人工智能硬件、算法及应用层均取得突破,行业进入爆发期:人工智能在60 多年的发展过程中,经历了两次高潮和低谷,2017 年以后再次进入爆发期。这一次的爆发,人工智能行业本身并未发生本质性的变革,而是源,于三大要件的全面提升:(1)算力提升明显,计算成本显著下降;(2)算法取得重大突破,深度学习算法得到广泛应用;(3)海量数据为算法实现和优化提供支持。人工智能将引领全球第四次工业革命浪潮,国内AI+战略轮廓已显现:随着人工智能渗透率的不断提升,其在全球经济发展中的影响力将逐步累,积。麦肯锡研究显示,2030 年 AI 可能为全球额外贡献 13 万亿美元的GDP 增量(相较于 2018 年),平均每年推动 GDP 增长约 1.2 个百分点,足以比肩人类历史上前三次通用技术革命(蒸汽机、电气化、信息化)带来的影响。当前,主要国家均将 AI 作为战略选项,欧盟、日本等国家和,地区已出台战略规划。我国“AI+”战略轮廓正在形成,AI 已经被定位为深化经济结构调整的重要抓手,“互联网+”战略将向“AI+”战略延伸。,国内人工智能产业发展加速,与传统产业融合前景值得期待:我国人工智能产业不断发展完善,形成了相对完整的产业链条。目前,国内人工智能终端应用产品丰富,计算机视觉、自然语言处理、机器人等技术,正在与,安防、交通、医疗、教育等传统领域深入融合。未来,“AI+”将是国内人工智能发展的主旋律,“政策、技术、需求”将共同推动该战略深化和落地。预计到 2020 年,我国人工智能核心产业的市场规模将超过 1600 亿元,而融合发展带来的相关产业市场规模将超过万亿。其中,北京、上海、广东等省市由于技术领先,且产业链完整,未来将引领行业发展。投资建议:我们坚定看好国内人工智能产业的发展,尤其是党中央、国务院将人工智能作为经济转型的重要抓手之后,未来在融合发展上有着更大的发展空间。基础层方面,我们建议关注国内服务器、高性能计算企业浪潮信息、中科曙光在算力提供上的市场机会;在应用层方面,我们建议关,注语音、计算机视觉、自动驾驶、预测分析等技术在 AI+(客服、安防、医疗、汽车、金融等)市场上的应用,覆盖企业中,建议关注科大讯飞、海康威视、苏州科达、卫宁健康等标的。,风险提示:(1)政策支持力度不达预期或调整。当前,国内人工智能产业链各环节还较为薄弱,行业对政府政策支持还十分依赖,如果政策支持方向出现调整,或者力度不达预期,对企业的业务发展和业绩可能造成影响。(2)技术研发和产业化不及预期。近年来,人工智能创新明显加速,产品周期明显缩短,技术创新迭代加快,企业技术层面的竞争更为激烈。如果企业在技术研发投入不足或者产业化不及预期,对公司发展将造成严重影响。(3)市场竞争激化。当前,人工智能行业是 IT 行业投资热点,微创企业、传统互联网巨头、垂直行业企业都在积极进入,已形成“百家争鸣”的格局。未来,随着国家政策继续引导,新进入企业将进一步增多,市场、利润争夺将趋于白热化,企业盈利能力将可能受到挑战。,股票名称,股票代码,股票价格,EPS,P/E,评级,2018-11-16,2017A,2018E,2019E,2020E,2017A,2018E,2019E,2020E,苏州科达浪潮信息科大讯飞海康威视卫宁健康中科曙光,603660000977002230002415300253603019,20.3220.3225.5128.8014.1144.90,0.750.390.331.030.140.48,0.990.460.281.250.200.71,1.320.650.411.520.271.02,1.760.890.641.850.351.41,27.0952.1077.3027.96100.7993.54,20.5344.1791.1123.0470.5563.24,15.3931.2662.2218.9552.2644.02,11.5522.8339.8615.5740.3131.84,强烈推荐推荐推荐推荐推荐推荐,人工智能(AI, Artificial Intelligence)是指机器代替人类认知、分析、识别和决策,本质是机器对人的意识和思维过程的近似模拟。近年来,人工智能由于其巨大的应用潜力为各国所接受,主要国家都将其视为未来科技产业发展的重要方向,其中中、美已经成为全球 AI 最主要的投资力量。我国政府关注和支持人工智能发展已经有较长时间,国务院及相关主管部门均对该领域发布规划和行动计划。2018 年 10 月 31 日,中央政治局组织集体学习,学习的主题是新一代人工智能,习近平做出了确保这个领域“理论研究走在前面、关键核心技术占领制高点”的论断。这是党中央十九届政治局第 9 次集体学习,此前还曾就大数据战略进行过学习研讨,9 次学习中就有两次与新一代信息技术相关,足见这一届政治局对该产业的高度重视。,一、 人工智能硬件、算法及应用层均取得突破,行业进入,爆发期,1.1 经历两次低潮之后人工智能走向务实,并在 2017 年进入第三次爆发期,人工智能的概念公认是起源于 1956 年的达特茅斯会议,这次会议经历了 1 个月,会议结束以后,人工智能的思潮被带入学术研究,并且也奠定了整个 AI 发展的学术基础。但是,从 1956 年开始,AI 的发展并非一帆风顺,60 年的发展过程中,经历了两次重大的低潮期,最终在 2010 年前后深度学习算法取得突破之后,应用才开始明显向好,并在 2017 年开始进入爆发期。,60 多年来,人工智能行业一共经历了三个快速发展的时代,包括推理时代、知识时代,以及机器学习时代,目前我们所说的人工智能处于机器学习时代,但其间也间隔着两个比较长的行业发展低谷。1、推理时代(1956-1974):达特茅斯会议之后,人工智能迎来了首个黄金期。这个时期发展主要成果是机器具备了逻辑推理能力,产生了包括几何问题证明器、解题器等产品,而且在这一个阶段美国军方给予了大量的经费支持。,2、第一次低潮期(1974-1980)。上世纪 70 年年代开始,业界发现人工智能能够解决的问题十分有限,远未达到之前“在 3-8 年里我们将得到一台具有人类平均智能的机器”的预期,此后经费被压缩,此后经历了第一次低潮期。,这个时期,人们发现,即使再尖端的人工智能产品,只能完成待解决问题的最简单的环节。当时的计算和存储能力十分有限,人工智能产品的缺乏基本的常识和推理能力。一些人类的基本技能对于机器来说,都是巨大的挑战,比如人脸识别。也正是如此,资本纷纷抛弃了人工智能项目,军方对MIT 的支持也终止了,AI 行业的发展陷入停滞状态。,3、知识时代(1980-1987):这个阶段的重点是注重机器的知识学习,将人类习得的知识传授给(训练)机器实现智能化,打造专家系统。当时很多大公司如 DEC、杜邦等都开始部署专家系统,以降低决策成本,避免犯常识性错误。在此期间,日本启动了第五代计算机的发展计划,计划投资 570亿日元在 10 年内开发出“采用平行架构的拥有人工智能的革命性的电脑”。除日本外,英国、美国军方同样也在支持类似专家系统的研发。我国中科院虽然当时有研发五代机的打算,但由于经费短缺的原因未能开展。,4、第二次低潮期(1987-1993):随着专家系统的不断发展,基于知识库和推理的系统面临着升级困难和稳定性不足的问题开始凸显,而且维护成本居高不下,造成了商业化场景的匮乏。期间,日本宣布五代机研发失败,所有之前针对五代机开发出的软件可供免费使用。同上一次低潮一样,由于项目成果并不明显,造成英国、美国等国的项目资助方开始降低资金投入规模,行业在这几年间除了培养出较多的人才,并无其他实质性的建树。,5、机器学习时代(2000-现在):这个阶段的重点是通过大数据分析自动学习知识实现智能化。在新的算法、强大计算能力和大数据分析计算支持下,人工智能取得了空前的发展,尤其 2010 年之后自,然语言识别等应用成长快速。这个时代的人工智能,由于信息技术环境的巨大变化,被业界称为“新一代人工智能”或者“人工智能 2.0 时代”。但是从本质上讲,这个时代的人工智能在内涵上同 60多年前的人工智能并没有发生质的改变,因此,我们在后续的行文中,不作刻意的区分。总结人工智能起起伏伏的发展历程,可以发现,成功都是来自务实的理论创新和实践,而严冬都源于盲目的浮夸和乐观,忽略了面对问题的复杂性,以及软硬件环境的客观限制。,图表1,人工智能发展历程,1.2 行业发展路线之争也由来已久,但“弱”人工智能将是业界最终选择所谓智能,是指人类感知、思维记忆、学习与自适应、决策等方面的能力,而人工智能就是对这些能力进行的模拟。目前,研究界按照人工智能对上述能力的模拟程度,分为弱人工智能、强人工智能以及超人工智能,三者是递进关系,超人工智能已经是人工智能对人的全面超越和替代。由于发展目标的不同,带来的也是完全不同的发展路径。“弱”人工智能强调的是人工智能的工具性。其主要思路是借鉴人类的某些智能行为,减轻人类在某些领域智力劳动的负担。“强”人工智能甚至是“超”人工智能强调的“人造智能”,研发出具有心智和意识,并能够按照其心智和意识进行行动的人造物或者机器。“强”人工智能和“弱”人工智能争论从人工智能概念诞生之日起就存在。“强人工智能”的代表人物维纳就提出了“控制论(Cybernetics)”,一直沉迷于机器智能的“魅力”之中,但由于一直没有建立像计算机科学和信息论一样面向应用的坚实理论基础,逐步走向没落。其中,属于强人工智能范畴的通用人工智能研究也未能取得进展。从主流的学术观点看,强人工智能“不能做、不该做”:首先,从技术上来说,主流人工智能学界的努力不是朝向强人工智能,现有技术的发展也不会自动使强人工智能成为可能。可以看到,人工智能近年来所取得的研究成果,几乎全部来源于“弱”人工智能。图像识别、语音识别、语言翻译、推理、博弈等方面都取得很大的进步,但是这些还都是基于人类特定的智能进行开发模拟,而不是完全的智能行为。因为只有通过模拟局部智能行为,才能避免人工智能项目陷入空谈,避免重蹈人工智能此前陷入低迷的覆辙,因为人类对强人工智能所涉及的心智、情感问题,基本罕有研究,而且很难取得进展。,其次,脑科学的研究还属起步阶段,人类对大脑的模拟到实现强人工智能的差距巨大。即使是能够完全模拟出人脑的神经元、神经突触等结构,但未必能够得到“强人工智能”,仅仅通过人的智能行为“反向工程”人脑结构难度非常大。最后,法律、科学伦理也在阻止强人工智能的研究,就像此前科学界反对克隆人一样,预计这方面的约束不会放松。很简单的道理,一个超越了人的智力的机器,而且具备独立的心智和情感,如何能够让其“甘心”服务人类。虽然科学家阿西莫夫给出了机器人发展的“三大定律”1,但是三大定律也有漏洞,科学家也将避免研究“强人工智能”。对于我国来讲,目前处在新一代人工智能发展十字路口上,我们也面临着人工智能路线选择的问题。从目前学界、业界发展的重点来看,整体较为务实,选择的都是“弱”人工智能发展方向,通过局部对人的智能进行模拟,替代人类某些不擅长或者成本高的智力活动。,图表2,智能的构成以及人工智能分级,1.3 硬件、算法以及数据三大要件全面提升,新一代人工智能得以快速发展计算能力、算法以及数据是人工智能的三驾马车,缺一不可人工智能从架构上分为三层,基础层、技术层和应用层。基础层主要是为人工智能技术(含算法)提供计算能力以及数据输入,包括超算/云计算平台,GPU/FPGA/NPU 等人工智能芯片,以及相关的数据资源以及大数据工具。技术层是整个人工智能的核心,包括算法和 AI 技术,该层是在基础层的基础上,开发算法模型,并通过海量识别训练和机器学习建模,开发面向不同应用领域的技术,如语音识别、图像识别等。应用层是将人工智能技术与应用场景结合起来,实现商业化落地,这个部分是国内人工智能发展最为活跃的领域,呈现出百花齐放的态势,主要应用包括智能安防、智能投顾、智能客服、智能家居、无人驾驶、机器人等多个领域。计算能力、算法和数据是人工智能发展的三大要件。人工智能在之前的 60 多年的发展过程中,两次遇到挫折,主要原因就是计算能力、算法模型以及数据量都难以为人工智能的发展提供支撑。以上世纪人工智能的第一次低谷为例,这一次的问题无论是在算力、数据还是算法方面都离全面智能化,1,阿西莫夫机器人三大定律:一、机器人不得伤害人,也不得见到人受伤害而袖手旁观;二、机器人应服,从人的一切命令,但不得违反第一定律;三、机器人应保护自身的安全,但不得违反第一、第二定律。由于发现三大定律有漏洞,阿西莫夫后来补充了第零定律:机器人不得伤害人类整体,或因不作为而使人类整体受到伤害。,有着巨大的差距,导致最终商业和军用项目都很难达到预期。同样在上世纪 80 年代末-90 年代初的一段低谷期内,因为专家系统需要海量的数据进行训练,虽然算力有所改善,大规模集成电路已经出现,但是算法和数据量难以形成强有力的支持,造成专家系统的学习成本过于高昂,最终也不得不作罢。而在近年来,行业发生了翻天覆地的改变,算力、算法、以及数据都出现了巨幅的进步和提升,也为应用的爆发奠定了基础。,图表3,人工智能技术及应用架构,驱动力一:计算力提升明显,计算成本显著下降1)计算能力提升明显。人工智能的每一次浪潮,都离不开计算能力的提升。除了 CPU 之外,相继出现了 GPU、TPU、NPU、FPGA 等人工智能专用芯片,而且超算、云计算等基础设施也使得计算能力得到显著提高,长期困扰人工智能发展的计算能力不足的问题得到缓解。分别来看:CPU 由于是以控制电路见长,是“全能型”选手,可以完成综合性强、复杂程度高的任务,但是每次能够同时完成的任务量有限,因此在人工智能这种需要大规模并行且重复性的任务多的场景中,效果并不是那么好。GPU 表现明显好于 CPU。GPU 以前主要是用作图形计算,完成重复计算效率高是主要特点,因为图形在计算图形点位变化的时候就是需要进行大量重复性的向量计算。对于人工智能这种并行计算、重复性运算多的场景中,GPU 的效率明显高于 CPU。以英伟达的 GPU TITAN X 为例,该产品在深度学习中所需训练时间只有 CPU 的 1/10 不到。,图表4,人工智能相关的通用计算能力演变,注:Flops 是衡量计算机计算能力的量,是 Floating-point Operations Per Second 每秒所执行的浮点运算次数的英文缩写。 Gflops 表示每秒 10 亿次(109)浮点运算, Tflops 表示每秒 1 万亿次(1012)浮点运算,Pflops 表示每秒 1000 万亿次(1015)浮点运算,Eflops 表示每秒百亿亿次(1018)浮点运算。,图表5,主流 GPU 处理器与 CPU 在深度学习训练时长比较,除 GPU 之外,TPU(张量处理芯片)的诞生使得人工智能的计算能力更进一步。TPU 是谷歌为了进一步提升人工智能芯片计算能力同时大幅降低功耗而专门设计的芯片单元。该单元正式发布于2016 年 5 月,但是在当年年初 Alpha Go 对战李世石时已经用到该芯片。TPU 之所以称为人工智能专用芯片,因为它就是针对 TensorFlow 等机器学习平台打造,可以在相同时间内处理更复杂、更强大的机器学习模型。谷歌通过数据中心测试显示,TPU 平均比当前的 GPU 或 CPU 快 15-30倍,性能功耗比(TFOPS/Watt)高出约 30-80 倍。超算、云计算等基础设施的快速发展,也为人工智能提供了强大的算力支撑。超级计算机的异构加速体系架构也开始大量运用到人工智能计算中,一些互联网公司也在开始直接搭建面向人工智能的GPU 超算。在 2018 年 6 月发布的 TOP500 超算榜单中,使用 NVIDIAGPU 作为加速处理器或者协处理器的超算数量达到 98 台,较 2017 年 11 月末增加了 12 台。云计算在人工智能方面的应用也在增多,云计算作为数据和计算能力的集合体,在为人工智能计算服务中有着先天性的优势,一些云计算企业也开始针对用户提供专有的人工智能计算服务。,图表6,TPU、GPU、CPU 和改进的 TPU 的性能对比,注:GPU(蓝色)和 TPU(红色)相对于 CPU 的能效比(功耗/瓦,TDP),以及 TPU 相对于 GPU的能效比。TPU是改进的 TPU。绿色代表改进的 TPU 与 CPU 对比的性能,浅紫色代表改进的TPU 与 GPU 对比性能。总和数据(Total)包含了主机服务器的功耗,增量数据(Incremental)则不包含主机服务器的功耗。GM 和 WM 是几何与加权平均数据。2)计算成本在大幅下降,人工智能的性价比在提升。在摩尔定律推动下,芯片价格继续下降。著名人工智能科学家库兹维尔研究显示,一直以来,人们 1000 美元可购买计算能力呈现指数级上升态势。库兹维尔用 CPS(每秒计算次数)来衡量计算能力。研究显示,2015 年 1000 美元已可够买超过老鼠大脑的算力,该算力水平相当于人脑(1016CPS)的千分之一。上述成本下降的速度是非同寻常的。因为在 1985 年同样的钱只能买到人脑算力的万亿分之一, 1995年就变成百万分之一,因此能够在 2015 年提升到千分之一是非常可观的。根据库兹维尔的模型,业界预计到 2025 年,1000 美元就可以买到相当于人脑的计算能力,算力的短板不复存在。,图表7,每 1000 美元可购买的计算能力(每秒计算次数),驱动力二:深度学习算法突破是关键,优化效果明显算法是人工智能的核心。算法其实是一个学习的过程,解决“学什么”、“怎么学”、“做什么”的问题。“学什么”需要找到能够表征需求的模型,明确输入、输出之间的映射关系;“怎么学”是缩小函数模型结果与真实结果误差的过程,通过不断的迭代,最终将误差锁定在可接受的范围内;“做什么”是最终要完成的三项任务,包括分类、回归以及聚类。其中最为著名的算法就是神经网络模型,该模型在 1946 年提出,但是爆发点在是在 2006 年,模型引入深度学习概念后,可以解决自我识别特征、自我训练的问题,此后算法在不断优化,并带动了新一代人工智能的快速发展。基于多层网络神经的深度算法,归纳和演绎能力近年来明显增强。以最著名的 ImageNet 大规模图像识别竞赛最好成绩为例,2017 年冠军模型识别误差 2.25%,而人类的识别误差为 5.1%,在该领域人工智能解决方案已经超越人类。算法的优化也正在使得计算效率大幅提升,更加节约计算资源、降低能耗,实现了硬件能力和算法的良性互动。以打败李世石的 Alpha GO 为例,当时该系统使用了 1920 个 CPU+280 个 GPU 才能完成计算,其 1 盘棋的能耗费用高达 3000 美元,这是人工智能大规模应用所不能接受的。但是,谷歌通过引入 TPU 以及自我学习算法模型之后,计算的时间大幅缩短,使用的硬件也降至只有 4 个TPU,不但能耗显著下降,计算效率也得到改善明显。,图表9,AlphaGo 不同版本所需的 GPU/TPU 资源,2012-2017 年 ImageNet 大规模图像识别竞赛最佳误差率15.40%11.20%6.70%,3.57%,2.99%,2.25%,2%0%,6%4%,图表818%16%14%12%10%8%,驱动力三:海量数据为算法实现和优化提供支持数据量同深度学习和训练的准确性密切相关。研究显示,数据字符数越多,训练的越充分,算法模型结果的准确率越高。随着移动互联网、电子商务等领域的快速发展,全球数据量实现爆发式增长,这为 AI 发展奠定了坚实的基础,这是此前几个阶段没有的。据 IDC、希捷的联合研究显示,未来较长时间内,全球的数据量都将以惊人的速度增长,2025 年全球的数据量将达到 163ZB,是 2016 年的 10 倍之多,其中 2015-2025 年的平均增速将超过 30%。如此海量的数据将为人工智能的准确性的提升创造条件。,图表10图表11,数据输入量及算法模型准确性的关系2017-2025 年全球数据量预测,(,二、 人工智能将引领全球第四次工业革命浪潮,国内“AI+”战略轮廓已显现2.1 AI 对经济贡献将逐步加速,2030 年将为全球贡献 13 万亿美元增量 GDP随着人工智能在硬件、算法以及应用领域的不断发展,人工智能在全球经济社会中的影响力将逐步累积。据麦肯锡研究数据显示, 2030年,人工智能有可能为全球额外贡献 13 万亿美元的增量GDP,较 2018 年基础上增长 16%(此为总体数据,去除了竞争影响、转换及应用成本以及负的外部性),平均每年推动 GDP 增长约 1.2 个百分点,足以比肩历史上其他三次通用技术(蒸汽机、电气和信息技术)所带来的变革性影响,全球以 AI 技术为代表的“第四次工业革命”正在兴起。对于一种新技术来说,从技术发展成熟到全球化应用需要较长时间,人工智能也不例外。在初期,由于学习和部署成本较高,企业应用推广速度较慢,但随着企业竞争和协同需要的增强,人工智能渗透率将逐步提升,对经济的贡献也将加速。据麦肯锡预计,人工智能将在 2025 年进入加速阶段,到 2030 年人工智能对经济的贡献度远大于未来 5 年(2019-2023 年),预计扩大 3 倍左右。按照麦肯锡的模型,人工智能将通过多种途径对经济增长产生影响,其中最主要的是三个方面。 1)通过对人类的劳动替代提高生产率,即替代效应。预计到 2030 年,通过人工智能的应用,自动化和劳动替代带来的生产率的提升,将带动经济实现 9 万亿美元的增长,贡献全球 GDP 增量的 11%。该渠道的影响假设在于,被替代的劳动力将在其他领域得到雇佣。(2)人工智能带来的产品和服务创新。麦肯锡研究认为,在扣除掉人工智能对现有产品、服务的替代影响(竞争负效应,-17%)之后,预计到 2030 年人工智能将通过该渠道创造 7%的净增 GDP,大约在 6 万亿美元左右。(3)人工智能也会给经济带来负面的外部影响,主要表现在对劳动力市场的冲击,这一部分的成本预计 7万亿美元左右,可能导致全球 GDP 下降 9%。,图表12,人工智能对全球经济的影响模拟(对比 2018 年),途径产出外部性AI 净贡献,维度放大效应替代效应产品、服务创新与拓展竞争效应全球数据交换财富创造和再投资转换及应用成本负外部性-,2023 年1%2%3%-2%1%0%-2%-2%1%,2030 年3%11%24%-17%2%3%-5%-4%16%,备注主要是增加和带动资本、劳动力投入AI 技术对现有劳动力的替代创新,但会对现有产品和服务造成冲击-,注:1)各项加总与净贡献略有误差,是因为四舍五入所致;2)模型模拟的是 2023 年、2030 年GDP 相较于 2018 年的增长幅度。,图表13,2018-2030 年人工智能对经济影响的净贡献变化(%),2.2 主要国家均将 AI 作为战略选项,欧盟、中国、日本等已出台发展规划人工智能对经济社会的巨大贡献潜力逐渐为全球各国所认识到,尤其是 2016 年谷歌 Alpha Go 战胜李世石之后,越来越多的国家开始着手研究和制定国家层面的发展规划和战略,全球 AI 领导者之争已经开启。近两年来,加拿大、日本、新加坡、中国、阿联酋、芬兰、丹麦、法国、英国、欧盟委员会、韩国和印度都发布了促进 AI 应用与开发的战略,这些战略关注点十分广泛,涵盖了科学研究、人才培养、技能与教育、道德包容、标准与法规及数据与数字基础设施等诸多领域。具体来看:1)美国。美国虽然在 AI 技术上处于全球领先,但是国家层面的战略一直未正式出台。在奥巴马任期的最后几个月,白宫曾经发布了三份独立报告为人工智能的未来做准备、国家人工智能研究与发展战略计划和人工智能、自动化与经济,力图自上而下推动 AI 战略,三份报告为美国人工智能发展奠定了基础。但是特朗普上台之后,对奥巴马的政策进行了调整,采取了相对市场化的政策导向,但是依旧明确要求要通过政府资助研发、消除监管等措施来推动 AI 发展。2)欧盟。2018 年 4 月,欧盟委员会通过了人工智能简讯,阐述了欧盟对 AI 的积极态度,目前欧盟委员会正在同各成员国合作,正在制定关于 AI 的协调方案。同时,欧盟决定将通过“地平线2020”科研和创新计划框架,将对 AI 经费大幅提升 70%。成员国中,法国针对 AI 推出“十五亿欧元计划”,支持 AI 研究、初创企业发展以及产业化;德国联邦政府 2018 年发布了联邦政府人工智能战略要点文件,要求联邦政府加大对人工智能相关重点领域的研发和创新转化的资助,并加强人工智能基础设施建设,到年底将发布国家层面的人工智能发展战略。英国政府在 2017 年 10 月发布了在英国发展人工智能报告,2018 年 4 月份还发布了人工智能行业新政报告,涉及推动政府和公司研发、提升数字化基础设施、AI 人才培养等内容。3)日本。日本政府和企业界都高度重视人工智能的发展。2017 年 3 月,日本 AI 技术战略委员会发布人工智能技术战略报告,阐述了日本政府为人工智能产业化发展所制定的路线图,包括三个阶段:在各领域发展数据驱动人工智能技术应用(2020 年完成一二阶段过渡);在多领域开发人工智能技术的公共事业(2025-2030 年完成二三阶段过渡);连通各领域建立人工智能生态系统。4)中国。2016 年 8 月,国务院发布“十三五”国家科技创新规划,明确人工智能作为发展新一代信息技术的主要方向。2017 年 7 月,国务院颁布新一代人工智能发展规划,该计划是所有国家人工智能战略中最为全面的,包含了研发、工业化、人才发展、教育和职业培训、标准制定和法,
展开阅读全文
相关资源
相关搜索
资源标签

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642