《欧洲人工智能白皮书》洞察.pdf

返回 相关 举报
《欧洲人工智能白皮书》洞察.pdf_第1页
第1页 / 共16页
《欧洲人工智能白皮书》洞察.pdf_第2页
第2页 / 共16页
《欧洲人工智能白皮书》洞察.pdf_第3页
第3页 / 共16页
《欧洲人工智能白皮书》洞察.pdf_第4页
第4页 / 共16页
《欧洲人工智能白皮书》洞察.pdf_第5页
第5页 / 共16页
亲,该文档总共16页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
习近平强调,我国经济已由高速增长阶段转向高质量发展阶段,正处在转变发展方式、优化经济结构、转换增长动力的攻关期,迫切需要新一代人工智能等重大创新添薪续力。我们要深入把握新一代人工智能发展的特点,加强人工智能和产业发展融合,为高质量发展提供新动能 。 习近平 “ “ nullnullnullnull nullnull 商汤智能产业研究院院长 tianfengsensetime nullnullnull 商汤智能产业研究院主任 liuzhiyisensetime 第 一部分 : 欧盟人工智能白皮书解读 目录 第一部分:欧盟人工智能白皮书 洞察 1. 白皮书的架构 2. 白皮书的逻辑 3. 人脸识别技术 4. 投资与就业影响 5. 白皮书的 总体 评价 第二部分:欧洲数据战略 洞察 第 一部分 : 欧盟人工智能白皮书解读 白皮书分为引言、利用工业和专业市场的优势、抓住下一个数据浪潮机遇、构建卓越生态系统、创建可信任生态系统,打造人工智能监管框架和结论六部分,提出利用人工智能实现“ 单一数据市场 ” 的愿景,希望将人工智能技 术和产业优势、高质量的数字基础设施以及符合其基本价值观的监管框架相结合,以此成为数据经济及其应用创新的全球领导者。 报告指出,希望通过 “ 政策监 管 ” 和 “ 增加资金投入 ” 两种措施促进人工智能发展并解决其带来的风险 问题。 政策监管方面,报告提出了使人工智能在欧洲可靠并安全发展的政策,包括 构 建 “ 卓越生态系统 ” 和 创建“ 信任生态系统 ” ,设定了未来 5年在数字化转型聚焦的 3个目标,即 研发以人为本的技术、打造公平且具有竞争力的经济环境、建设开放、民主和可持续发展的社会。 增加资金投入方面,报告提 出在未来十年中, 每年吸引 200亿欧元的投资,以提高欧盟在人工智能领域的竞争力,同 时保护欧盟公民免受人工智能带来的风险挑战。此外,白皮书还对使用人脸识别等远程生物识别系统提出了严格限制,规定将不仅适用于欧洲本地企业,在欧盟运营的第三国数字企业也必须遵守相应规定,此举可能会对我国人工智能企业发展带来冲击。 第一 部分 欧盟人工智能白 皮书解读 1.白皮书的架构 2. 白皮书分六个章节。一是引言,包含问题界定、可能需要修订的现存与 AI相关的欧盟立法框架、未来欧盟监管框架范围、要求类型。二是 “ 利用产业和专业市场 的优势 ” 。三是 “ 抓住面前的机遇 下一个数据浪潮 ” 。四是 “ 卓越生态系统 ” 。五是 “ 信任生态系统 AI监管框架 ” 。六是结束语。 白皮书主要围绕“卓越生态系统”( ecosystemof excellence)和 “ 信任生态系统 ” ( ecosystem of trust)两个方面的建设展开: “卓越生态系统” “ 信任 生态系统” 是要建设一个欧洲、 国家和地区三个不同层面措施协同的政策框架。公共部门和私营部门共同合作, 调动资源,沿着整体价值链建设“卓越生态系统”,从研发创新开始,建设正确的激励机制来加快 AI解决方案的在包括中小企业在内的应用。 它是欧洲 AI未来监管框架的关键要素。 要做到这一点,必须确保体系遵守欧盟的规则, 包括保护基本权利和消费者权利,尤其是那些在欧盟运行的、 风险较高的 AI系统。这个政策为市民使用 AI应用增添了信心,为企业和公共组织的 AI创新提供了法律保障。欧洲委员会强烈赞同 “ 以人为本 ” 。 2 编者按:小市场、强监管、弱扶持是欧盟各国错失互联网商业时代的限制因素,所以“组成数字经济大市场”并尝试以标准体系进行数据利用,成为欧洲政府、企业在人工智能时代的唯一路径,也能成为抗衡中美互联网巨头、 AI独角兽的“法定护城河”。 第 一部分 : 欧盟人工智能白皮书解读 构建“卓越生态系统”,促进人工智能应用 交通系统以及更好的公共服务。 为了构建起“卓越生态系统”,白皮书提出需要在八个层面作出努力。 白皮书重点提出要建立协调欧洲、国家和区域三个层面不同政策措施的框架。通过私人和公共部门之间的合作,调动资源创建一个从研究到创新在内的包含 整个价值链的“卓越生态系统”( Ecosystem of Excellence)。该系统将为欧盟公民提供更便利的卫生服务、更可靠的家庭产品、更安全和可持续的 01 02 03 04 强化人工智能发展必需的技能 欧盟委员会将提出强化技能议程的方案,确保欧洲每个人都能从欧盟数字化转型中受益,将提高劳动力技能使之适应人工智能引发的变革作为优先事项。 加强与成员国的合作 到 2027年,欧洲拟采取约 70项联合行动,便于各成员与委员会在评估人工智能战略方面进行更密切和有效的合作 。 重视科研机构和团队的发展 应加强多个欧洲人工智能研究中心之间的协同合作,建立一个集聚研究、创新和专业知识的“灯塔型”中心,成为人工智能领域的全球标杆。 促进中小企业合作 加强数字创新中心和人工智能平台建设,在欧洲人工智能和区块链 1亿欧元投资基金的基础上进一步扩大人工智能领域融资渠道,促进中小企业应用人工智能技术 。 05 06 07 08 保护对数据和基础架构的访问 提倡负责任的数据管理实践,将有助于建立信任并确保数据的可重用性。同时,加大对关键计算技术和基础架构的投资,欧盟委员会已经提出了超过 40亿欧元的数字欧洲计划支持高性能和量子计算 。 与私营机构建立伙伴关系 欧盟委员会将在人工智能领域建立一个新的公私伙伴关系 ,确保私营部门充分参与研究和创新,并提供必要的共同投资,努力推动人工智能研究和创新有所突破 。 推动公共机构采用人工智能 在公共行政、医院、公用事业和交通服务、金融监管机构和其他公共部门部署人工智能产品和服务,制定具体的“人工智能的采用方案”,用于支持人工智能系统的公共采购 。 加强国际 合作 未来欧盟将在促进尊重基本权利的基础上,开展广泛的国际合作发展负责任的人工智能 。 3 编者按:欧盟为“严谨创新”付出了沉重的代价,至今没有一家千亿美元市值的互联网公司,与之相对的是中国采用“放水养鱼,水大鱼大”的新经济扶持策略,事实证明创新试错是商业振兴的必由之路,尤其是在疫情对全球经济沉重打击的未来三年中。 第 一部分 : 欧盟人工智能白皮书解读 创建“信任生态系统”,打造人工智能监管框架 工智能,提升在全球市场上的竞争力。 该人工智能监管框架主要包含 四 方面的内容。 人工智能技术的发展带来机遇的同时也伴随着诸多风险,个人难以保障合法的权利和安全隐私,企业忧虑于法律责任的不确定性,缺乏信任成为阻碍人工智 能广泛应用的重要因素。欧盟旨在建立统一的欧洲人工智能监管框架,帮助创建一个稳定的内部市场,使欧洲企业能够顺利进入单一市场,以进一步发展人 第一,风险定义 智能算法技术文档等,并按规定保存供监管部门测试和检查。三是保证信息的透明度。使用人工智能产品时,应作出非人工操作提示,同时需要人工智能技术和产品功能说明等信息,确保高风险场景下人工智能技术使用的安全性。 四是保证人工智能系统的稳健性和准确性。应确保人工智能系统全生命周期的可靠和准确性、运行结果可重复,具有抵御外部攻击的能力。五是确保人类适当参与高风险人工智能应用。要求人工智能产品需经过人工审查才可生效使用,投入后仍需人工干预和监督,在危险发生时可人工终止系统。六是对远程生物识别技术的特殊要求。欧盟数据保护规则原则上禁止出于唯一识别自然人的目的 处理生物特征数据,为解决在公共场所以该目的使用人工智能可能引起的社会关切,欧盟委员会将在欧洲展开广泛辩论,讨论可能正当的应用情况(如有)和共同保障措施。 报告将人工智能应用带来的风险分为两类,一类是威胁基本权利的风险,如侵犯个人隐私、产生歧视等;另一类为安全风险和责任义务的分配。 白皮书对人工智能使用带来的高风险作出规定,需同时满足以下两个标准:一是将人工智能技术用于医疗、运输、能源及部分公共部门等高风险领域,监管框架应列出覆盖的高风险部门清单并定期审查和修改;二是在特定领域中使用人工智能的方式可能会产生重大风险。除此以外,人工智能用于人才招聘、涉及从业者权益的相关事项、远程生物识别及其他侵入式监视等领域时将始终被认定为高风险。人工智能监管框架将适用以上被视为高风险的领域。 委员会认为,需要对立法框架进行修改,主要原因如下: 一是需有效适用和执行现有的欧盟和国家立法,由于人工 智能技术不透明等特性,有必要调整或明晰某些领域的现行立法,确保其适用人工智能技术发展并可有效执行。 二是现行欧盟立法范围具有局限性。目前生效的欧盟一般安全立法仅适用于产品,而不适用于服务,因此原则上也不适用于基于人工智能技术的服务。 三是人工智能系统的功能会发生变化。人工智能系统集成于产品中,生命周期中功能或发生变化而产生风险。 四是供应链中不同经济主体之间责任分配存在不确定性。如果产品集成的人工智能技术为技术生产方以外的主体添加,发生风险后责任分配会变得不明确。 五是需要应对安全概念的变化。使用人工智能技 术可能会产生欧盟立法目前没有明确提出应对方案的风险 。 第二,考虑对与人工智能相关的欧盟现行法律法规作出调整 第三,未来欧盟监管框架的范围将重点关注人工智能带来的 高风险场景 第四,人工智能监管框架的 具体规定 人工智能监管框架将仅适用于高风险的人工智能应用场景,实现重点突出、针对性强的监管和干预。一是提高对训练数据的要求。训练用的数据集要有代表性,涵盖避免危险发生的所有相关场景,并可反映性别、种族及其他可能导致歧视内容的信息,满足保护隐私和个人数据的要求。二是合理记录和保存数据。准确记录数据集选择标准、数据集特征、人工 4 编者按:欧盟相对一致的价值观是最容易获得同盟支持的“数据国境线”,采用“外紧内松”战略鼓励创新。 第 一部分 : 欧盟人工智能白皮书解读 2.白皮书的逻辑 欧盟委员会所支持的两个重要科技政策目标, 即通过加强投资和监管,促进人工智能发展和处理相关技术应用带来的风险。 1)从价值观入手并整合欧洲在工业和对企业服务方面的优势 欧盟提出,赢得人们对数字技术的信任是技术发展的关键。白皮书认为,这对欧洲来说是一个机会,不仅仅因为欧洲政治非常强调法治和价值观的保护,而且欧洲有能力提供从航空到能源、汽车和医疗设备等安全、可靠且复杂的产品和 服务。欧洲在数字化工业和企业对企业应用方面拥有强大的地位,但在消费者平台方面的地位相对较弱。 白皮书认为,计算技术的进步和数据的可用性是当前人工智能热潮的关键驱动 因素。 欧洲可以将其技术和产业优势与高质量的数字基础设施和基于其基本价值观的监管框架相结合,成为数据经济及其应用创新的全球领导者。 2) 构建“卓越生态系统”和“信任生态系统” 欧洲的人工智能必须以欧洲的价值观和人类尊严及隐私保护等基本权利为基础, 人工智能系统的影响不仅要从个人的角度来考虑,还要从整个社会的角度来考虑。 1、白皮书建立了政策框架,提出了在欧洲、国家和区域各级协调可采取的措施。在私营部门和公共部门的合作下,该框架的目标是调动资源,在整个价值链中实现 “卓越生态系统 “ ( ecosystem of excellence),目的是从研究和创新开 始,并创造适当的激励机制,以加速采用针对包括中小型企业( SMEs)在内的人工智能解决方案。 2、基于欧洲未来人工智能监管框架的关键要素,将创建独特的 “信任生态系统 “( ecosystem of trust)。为此,该系统必须确保遵守欧盟规则,在欧盟运行的高风险的人工智能 系统保护消费者的基本权利。建立受信任生态系统本身就是一项政策目标,应该让公民有信心接受人工智能的应用,并给予公司和公共组 织使用人工智能进行创新的法律确定性。欧盟委员会坚决支持以有关在以人 为本的人工智能技术上建立信任的通信( the Communication on Building Trust in Human-Centric AI)文件精神作为基础,采取以人为本的办法,并将考虑吸纳使用高级别专家编写的道德准则试点阶段获得的意见,来完善这个系统。 3) 持续加大投资 欧盟提出了加大投资的具体目标。欧盟目前在人工智能创新研究上的资金投入已达到 15亿欧元(相比前一个周期上升了 70%),超过四分之一的产业与个人服务机器人在欧洲生产,但根据欧盟委员会,这个数字还远远不够。仅就数字基础设施和网络而言,欧盟每年就有 650亿 欧元的投资缺口。委员会预计,实施改革并加大对研发和技术部署的投资,到2030年可能会带来 14%的 GDP增量。 目前,欧盟的战略目标是在下个十年里在人工智能上吸引超过 200亿欧元的总投资金额。 为了刺激私人和公共投资,欧盟将从 “ 数字欧洲 ”(Digital Europe)计 划、 “ 地平线欧洲 ”(Horizon Europe)以及欧洲结构和投资基金 (European Structural and investment Funds)中提供资源,满足欧洲欠发达地区和农村地区的需求。 5 编者按:欧盟的战略投资规模明显小于中国,这对智能基础设施建设很不利,普惠科技的前期通常是政府、智能商业企业共同构建“数字新基建”。 第 一部分 : 欧盟人工智能白皮书解读 潜在问题 1. 基本权利面临的风险,包括个人数据和隐私保护以及歧视; 2. 安全风险和责任制度的有效运作。 有关人工智能的立法架构欧盟可作出的调整选项 委员会认为,可以改进立法框架,以处理下列风险和情况 : 6 2)欧盟现行立法的范围限制 欧盟产品安全立法的一个重要焦点是产品的市场定位。而在欧盟产品安全立法中,当软件是最终产品的一部分时,必须遵守相关的产品安全规则, 独立软件是否受欧盟产品安全法规的保护是一个公开的问题,在某些领域有明确的规定。欧盟现行的一般安全法规适用 于产品而非服务,因此原则上也不适用基于人工智能技术的服务 (如卫生服务、金融服务、交通服务 )。 4) 供应链中不同经济运营者之间责任分配的不确定性 通常,欧盟产品安全立法将责任分配给市场上产品和所有组件的生产者,如人工智能系统。但如果人工智能是由非生产商的一方在产品投放市场后添加的,这些规定可能会变得不明确。此外,欧盟的产品责任立法规定了生产者的责任,却让国家负责管理供应链中其他人的责任 。 1) 应用和执行现有的欧盟和国家立法 人工智能的不透明性使得识别和证明可能的违法行为变得困难,包括保护基本权利、归责和满足索赔条件的法律条款。因此,为了确保有效的实施和执行,可能有必要调整或澄清某些领域的现有立法。 3) 改变人工智能系统的功能 将软件 (包括人工智能 )集成到产品中,可以在产品和系统的生命周期中修改它们的功能。对于需要频繁更新软 件或依赖机器学习的系统尤其如此。这些特性会产生新的风险,而这些风险在系统投放市场时是不存在的。这些风险在现有的立法中没有得到充分的解决,现有的立法主要关注的是上市时存在的安全风险 。 5) 安全概念的变化 在产品和服务中使用人工智能可能会产生欧盟立法目前没有明确解决的风险。这些风险可能与网络威胁、 个人安全风险 (例如与智能新应用相关 )、连 接 中 断 风 险 等 有 关 。这 些 风 险 可 能 在 产品投放市场时出现,或者在使用产品时由于软件更新或自我学习而出现。欧盟应充分利用其所掌握的工具,加强研究其对与人工智能应用相关的潜在风险的证据基础,包括利用欧盟网络安全机构 (ENISA)评估人工智能潜在威胁的经验 。 卓越生态系统 ( ecosystem of excellence) 信任生态系统 (An Ecosystem of Trust) 1)和成员国一起合作 2)聚焦研究投入和创新社群 3)与私营机构建立伙伴关系 4)推动公营机构采用人工智能 5)保护对数据和计算基础设施的访问 6)国际方面,在围绕共同价值观建立联盟、促进人工智能的道德使用方面,欧洲处于有利地位,能够发挥全球领导作用。 一个可靠的欧洲人工智能监管框架将保护所有欧洲公民,并帮助创建一个稳定的内部市场,以进一步发展和吸收人工智能,并加强欧洲在人工智能方面的工业基础。这将使欧洲企业能够顺利进入单一市场,并支持其在全球市场上的竞争力。 编者按:“信任边界”的目的是,大幅降低 欧联体 生态内部创新门槛与成本,但维持对欧洲之外企业的严格监管;欧洲“单一数据市场”对东北亚、东南亚的“一带一路数据市场”有启发意义 。 编者按:“负责任的 AI”是 一种在大众创新成本与大众利益影响之间的平衡,利用金融工具设计“ AI有限责任制”将对供需双方都产生明确法律保护。 第 一部分 : 欧盟人工智能白皮书解读 3.人脸识别技术 2020年 1月,彭博社曾披露 “ 白皮书 ”草案,称草案建议 3至 5年内禁止人脸识别技术应用于公共场所,目的是留出更多时间评估技术风险。 但这一 3至 5年限制条款并未出现在正式版的白皮书中。 针对人脸识别,正式版本白皮书称,收集和使用生物数据用于远程识别目的对基本权利有特定风险,例如在公共场所部署人脸识别技术。欧盟数据保护规则原则上禁止以识别特定自然人为目的处理 生物数据,特殊条件除外。 白皮书表示,“为解决在公共场所以此目的使用人工智能可能引起的社会关切,避免在内部市场出现分裂,欧盟委员会将在欧洲展开广泛辩论,讨论可能正当的应用情况(如有)和共同保障措施。” 高速发展的人工智能通过改善医疗保健、提高农业效率、缓解和适应气候变化、维护提高生产效率等方式改变人们的生活,但也带来一些潜在风险,如决策不透明、性别或其他形式的歧视、侵 犯私人生活等。 因此,白皮书提出高风险人工智能应用程序的判断标准,认为应根据风险来进行监管干预。高风险人工智能应用程序判断标准首先是程序所属的领域经常发生重大风险,例如医疗保健、运输、能源等;其次是程序的使用方式可能会产生重大风险,例如造成伤害、死亡或重大物质或非物质损失。 白皮书还对使用人脸识别等远程生物识别系统提出严格限制。这些规定不仅适用于欧洲本地企业,也将对在欧盟运营的第三国数字企业产生重要影响。国际社交媒体“脸书”总裁扎克伯格日前 专门赶赴布鲁塞尔展开游说,据欧盟媒体报道,扎克伯格希望通过承诺加强应对网络有害信息来换取欧盟降低针对域外企业的市场准入门槛。不过,欧委会在这一问题上态度强硬。欧盟内部市场委 员布雷顿表示,“脸书”这样的大型国际数字科技企业理应承担重要的社会责任,不应该让我们去适应这些公司,而是要让他们来适应我们。” 7 编者按: 欧联体保护主义兴盛 ,开罚单并不解决问题, 先拿美国互联网巨头开刀,为本地科技企业创造发展空间 ;另一方面,针对影响社会广泛民生的系统性威胁应设置底线规则,即少数特殊数据集的管控,例如军工、地理、核能等。
展开阅读全文
相关资源
相关搜索
资源标签

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642