20240304_毕马威_人工智能行业:解读欧盟人工智能法案_24页.pdf

返回 相关 举报
20240304_毕马威_人工智能行业:解读欧盟人工智能法案_24页.pdf_第1页
第1页 / 共24页
20240304_毕马威_人工智能行业:解读欧盟人工智能法案_24页.pdf_第2页
第2页 / 共24页
20240304_毕马威_人工智能行业:解读欧盟人工智能法案_24页.pdf_第3页
第3页 / 共24页
20240304_毕马威_人工智能行业:解读欧盟人工智能法案_24页.pdf_第4页
第4页 / 共24页
20240304_毕马威_人工智能行业:解读欧盟人工智能法案_24页.pdf_第5页
第5页 / 共24页
亲,该文档总共24页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
解码欧盟 AI 法案了解 AI 法案的影响以及如何应对毕马威。有所作为。毕马威国际|03 05 07 11 17Contents介绍执行摘要检查 AI法案的影响和范围揭示 AI 法案的关键组成部分后续步骤 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 2XVFUzQrMtQpOtNpMmRqPpO9P8Q7NpNrRoMqMeRmMmPlOmMqN7NoOuMxNpMmPMYtPyRIntroductionIntroduction Summary 影响和范围 关键组件 后续步骤 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 3Introduction Summary 影响和范围 关键组件 后续步骤人工智能(AI)正在为社会和企业提供新的利益,旨在改变工作场所和主要行业。简而言之,这场竞赛正在拥抱人工智能和自动化的非凡和不断发展的力量。毕马威的 2023 年全球技术报告显示,大多数全球高管(62)报告说,过去 24 个月,与 AI 和机器学习相关的数字化转型计划的业绩或盈利能力有所提高。68 的人表示,这些技术将在帮助他们实现未来三年的业务目标方面发挥“至关重要”的作用,而57%的人认为人工智能和机器学习对实现短期目标至关重要。但随着全球人工智能在商业和我们日常生活中的扩散,我们迫切需要对于护栏和立法,以应对有关 AI 的适当和道德使用,开发和分配的重大新风险。根据 Trust in 人工智能,由毕马威澳大利亚和昆士兰大学,五分之三的人对信任 AI 系统保持警惕,71 的人希望 AI 受到监管。最近,全球科技巨头的首席执行官在国会山的一次会议上呼吁加强 AI 监管,以保护人们免受 AI 的最坏影响。作为回应,欧盟(EU)就全面的人工智能法案(AI 法案),采取基于风险的方法来保护基本权利,民主,法治和环境可持续性。1虽然它有望成为法律到 2024 年,预计到 2025 年,这项立法 这是同类立法中的第一个 预计将成为人工智能监管的事实上的新全球标准。随着人工智能法案的出台,欧盟的目标是在促进人工智能采用和确保个人负责任、道德和可信使用人工智能的权利之间取得平衡。在本文中,我们探讨了 AI 法案对您的组织可能意味着什么,并研究了 AI 法案的结构,它所施加的义务,遵守的时间表以及组织应考虑的行动计划。1 欧洲议会。(2023 年 12 月 9 日)。人工智能法案:关于值得信赖的人工智能的全面规则的交易 新闻稿。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 4组织领导应根据 AI 法案,公司品牌,价值观和风险承受能力推动举措,以促进负责任的使用这可以帮助促进道德发展、监管合规、风险缓解和利益相关者信任。大卫 罗兰兹全球 AI 领导者毕马威国际人工智能的开发和使用应注重安全和道德,将技术进步转化为社会的积极力量。欧盟人工智能法案将有助于促进创新,同时保护最终用户。洛朗 戈比全球可信 AI 领导者毕马威国际执行摘要Introduction Summary 影响和范围 关键组件 后续步骤 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 5Introduction Summary 影响和范围 关键组件 后续步骤人工智能法案旨在规范人工智能的道德使用AI 拥有巨大的希望,可以扩大可实现的范围,并为我们的利益影响世界-但管理 AI 的风险以及潜在的已知和未知的负面影响将至关重要。人工智能法案将于 2024 年定稿,旨在确保人工智能系统是安全的,尊重基本权利,促进人工智能投资,改善治理,并鼓励统一的欧盟人工智能市场。大多数 AI 系统需要在 2026 年上半年之前遵守 AI 法案The AI Act s definition of AI is expected to be broad and include various technologies and systems.As a result,organizations are likely to be significant impact by the AI Act.Most of the obligations are expectedto take effect in early 2026.However,prohibited AI systems will have to be stemporated out six months after the AI Act comes inforce.The rules for government通用人工智能预计将在 2025 年初应用。2高风险 AI 系统的提供商和用户面临严格的义务人工智能法案采用了基于风险的方法,将人工智能系统分为不同的风险级别:不可接受的、高的、有限的和最小的风险。3高风险的人工智能系统是允许的,但要遵守最严格的义务。这些义务不仅会影响用户,还会影响所谓的 AI 系统的“提供者”。人工智能法案中的“提供者”一词涵盖了人工智能系统的开发机构,包括开发人工智能系统以供严格内部使用的组织。重要的是要知道一个组织既可以是用户也可以是提供者。提供商可能需要确保遵守有关风险管理,数据质量,透明度,人为监督和稳健性的严格标准。用户负责在 AI 法案的法律范围内操作这些 AI 系统,并根据这包括对预期目的和用例、数据处理、人工监督和监控的义务。通用 AI 系统的护栏已经添加了新的规定,以解决通用 AI(GPAI)模型的最新进展,包括大型生成 AI 模型。4这些模型可以用于各种任务,并且可以集成到包括高风险系统在内的大量 AI 系统中,并且越来越成为欧盟许多 AI 系统的基础。为了考虑 AI 系统可以完成的广泛任务以及其能力的快速扩展,同意GPAI 系统及其所基于的模型上,可能必须遵守透明度要求。此外,拥有高级复杂性、能力和性能的高影响力 GPAI 模型将面临更严格的义务。这种方法将有助于减轻由于这些模型的广泛使用而可能出现的系统性风险。5AI 法案不影响现有的联盟法律现有的工会法律,例如关于个人数据、产品安全、消费者保护、社会政策和国家劳动法和实践的法律,以及与产品安全有关的工会部门立法法案,继续适用。了解 AI 法案对您的组织的影响将是成功的关键组织应该花时间创建他们开发和使用的人工智能系统的地图,并按照人工智能法案的定义对其风险级别进行分类。如果他们的任何人工智能系统属于有限、高或不可接受的风险类别,他们将需要评估人工智能法案对其组织的影响。必须尽快了解这种影响以及如何应对。2 欧盟委员会。(2023 年 12 月 12 日)。人工智能-问答 新闻稿。3 欧洲理事会。(202 年 12 月 9 日)。人工智能法案三部曲:新闻发布会-第 4 部分。视频。4 欧洲议会。(2023 年 3 月)。通用人工智能 背景材料。5 欧盟委员会。(2023 年 12 月 12 日)。人工智能-问答 新闻稿。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 6IntroductionExamining theSummary 影响和范围 关键组件 后续步骤AI 法案的影响和范围 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 7Introduction Summary 影响和范围 关键组件 后续步骤欧盟委员会(EC)于 2021 年 4 月提出了 AI 法案,截至 2023 年 12 月,欧洲议会,欧洲理事会和欧盟委员会已达成临时协议,以制定 AI 法案。拟议的 AI 法案有望重塑我们对 AI 的思考和管理方式,类似于在过去的几年里发生在数据隐私方面。预计将在 2024 年成为法律,人工智能法案可能会立即对任何通过我们的镜头:AI 法案的潜在影响在欧盟运营的提供 AI 产品,服务或系统的业务。该法律在欧盟引入了 AI 的定义,按风险对 AI 系统进行了分类,对 AI 系统提出了广泛的要求和必要的保障机制,并确立了透明度义务。它的目的是做什么?欧共体的目标是在促进人工智能发展和促进创新与有效管理新兴风险之间取得平衡。这反映在提案的目标中:6 确保欧盟市场上的人工智能系统是安全的,并尊重公共权利和价值观。提供法律确定性,以促进 AI 系统的投资和创新。加强治理和有效执行道德和安全要求。为合法、安全、可信的人工智能应用促进单一欧盟市场的发展,同时防止市场分散。激发积极的 通过监管沙箱激发创新,中小型企业可以在无需立即进行监管审查的情况下测试其 AI 系统。促进标准、行为守则和认证的统一。为 AI 系统提供更大的透明度。为参与者创造一个公平的竞争环境。保障基本权利并为居住在欧盟的个人提供法律确定性。采用最佳做法 对您的 AI 系统进行分类并了解相关风险。对高风险 AI 系统(强制性风险管理、数据治理、技术文档等)提出更严格的要求。进行合格评定和后-高风险人工智能系统的市场监控。建立有效的监督和执行机制。管理和降低风险 禁止在 AI 系统中出现不可接受的风险。避免侵犯基本权利。防止使用潜意识或不道德的技术,可能影响或扭曲一个人的行为,从而对该人或另一个人造成伤害。尽量减少可能导致不公平或不充分结果的偏见。限制由于年龄,残疾,政治见解或其他因素而对弱势群体或群体的剥削。6欧洲委员会。(2021 年 4 月 21 日)。欧洲议会和理事会法规的提案,“制定人工智能协调规则(人工智能法)和修订某些联盟立法法”。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 8Introduction Summary 影响和范围 关键组件 后续步骤为了实现这些目标,人工智能法案采用了基于风险的方法。这允许建立特定的最低要求,以解决与人工智能系统相关的风险和问题,而不会过度限制或阻碍技术发展或不成比例地增加与将人工智能系统投放市场有关的成本。谁会受到影响?欧盟内外的大多数组织都在开发或使用 AI 系统,这些系统可能符合 AI 法的范围。但是,鉴于实施期限较短,组织应该对他们正在开发和/或部署的 AI 系统以及如何衡量 AI 法的要求有深刻的了解。涵盖哪些政党?任何将人工智能系统投放市场或在欧盟范围内投入使用的提供商,无论地点如何。位于欧盟以外的任何 AI 系统提供商,其系统输出可以或打算在欧盟使用。位于欧盟的任何 AI 系统提供商。任何进口商或分销商将人工智能系统投放市场或在欧盟范围内提供。产品制造商将带有 AI 系统的产品投放市场或以其名称或商标在欧盟内投入使用。欧盟内部 AI 产品和服务的用户。什么是不覆盖的?人工智能系统开发或用于军事目的。非欧盟国家的公共当局或国际组织在国际协定框架下用于与欧盟进行执法或司法合作时使用的人工智能系统。人工智能系统的开发和使用的唯一目的是科学研究和发现。人工智能系统在投放市场或投入使用之前处于研究、测试和开发阶段(包括免费和开源的人工智能组件)。人们将 AI 用于个人用途。与执行通用数据保护条例(GDPR)一样,欧共体也明白,在欧洲市场销售其产品的非欧洲实体应受到与成员国类似的监管。预计欧盟将成为全球人工智能标准的中心,在美国甚至英国都存在分歧。与 GDPR 一样,人工智能法案将产生域外影响。谁在您的组织中受到影响?管理合规性,数据治理以及 AI 技术的开发,部署和使用的高管可能会看到他们的角色和职责受到 AI 法案的影响。除了组织中的高级角色外,董事会和各个治理委员会也可能effected,and they should develop awareness and knowledge.Given the broad definition of AI and the current pace of provedication,organizations should take a overtual approach.合作进行有目的的创新和开发,风险管理和 AI 系统的治理,以实现对 AI 法案的遵守。它将如何执行,处罚是什么欧共体通过建立人工智能委员会和专家组,提出了一种执行人工智能提供商要求的结构。双方都在欧盟层面负责:促进与国家监管当局的有效合作。提供最佳实践建议。确保法规的一致应用。每个成员国都应建立或指定一个国家主管部门,以确保法规的实施并维护其活动的客观性和公正性。欧盟拟议的法规可能会有一个对所有利用 AI 的强大力量的组织产生深远的影响,不合规的后果可能从限制市场准入到取决于不合规水平的重大罚款。罚款范围可能从 3500 万欧元或全球营业额的 7 至 750 万欧元或1.5 营业额的百分比,取决于公司的侵权行为和规模。77 欧洲议会。(2023 年 12 月 9 日)。人工智能法案:关于值得信赖的人工智能的全面规则的交易 新闻稿。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 9Introduction Summary 影响和范围 关键组件 后续步骤跟踪欧盟立法旅程弹簧 2026最终的 AI 法案将全部生效。2024 年末什么时候适用?人工智能法案中概述的大多数义务预计将在 2026 年上半年生效。禁令预计将于 2024 年底生效,有关通用人工智能(GPAI)的义务预计最早将于 2025 年生效。GPAI 是指执行通常适用的功能的 AI 系统,例如图像和语音识别,音频和视频生成。对“不可接受的风险”AI 系统的禁令将适用。2023 年 6 月-2023 年 12 月最终的 AI 法案谈判发生2025 年中期通用人工智能的几项义务将适用。模式检测,问答,翻译等,但可以有广泛的可能用途,无论是有意的还是无意的。这些系统可以用作高风险人工智能系统,也可以作为其他高风险人工智能系统的组成部分。理事会,委员会和议会之间。达成了最终确定拟议规则的临时协议2023 年 12 月。我们在这里最终文本预计在 2024 年上半年。2022 年 12 月理事会采取了共同立场(“一般做法”)关于 AI 法案。2023 年 6 月议会对大赦法草案采取谈判立场。2021 年 4 月欧盟委员会公布了一项新的人工智能法案。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 10Introduction揭示 AI 法案的关键组成部分Summary 影响和范围 关键组件 后续步骤 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 11Introduction Summary 影响和范围 关键组件 后续步骤人工智能法案是一份全面的文件,旨在帮助提供人工智能的明确定义,使欧盟范围内的人工智能与其他欧盟法律法规保持一致。人工智能法案的主要目标是建立一个统一和横向的法律框架,以促进人工智能系统的采用,同时提供高水平的保护,防止其有害影响。该框架可以帮助建立对 AI 技术的信任,并使个人和组织对使用它有更大的信心。定义人工智能The AI Act applies a broad definition of an AI system derived from the recent updated Organisation for Economic Co-operation and Development(OECD)definition.While the AI Act s text is not yet public available,the OECD definition is as follows:“AI 系统是一个基于机器的系统,对于明确或隐含的目标,从它接收的输入中推断如何生成可能影响物理或虚拟环境的输出,如预测、内容、建议或决策。人工智能系统在部署后的自主性和适应性水平各不相同。8”这个定义是故意保持广泛的,以涵盖整个范围,从专注于单一用例的更简单的技术和系统到深度学习和生成 AI 的高级应用。人工智能法案的范围变得更加广泛比最初预期的,大大超出了我们最近对高级和生成 AI 的理解。AI 法案的定义范围有几个人工智能系统的豁免,例如用于军事或国防目的的系统,以及免费和开源系统的有限豁免。AI 风险框架和要求人工智能法案定义了一个框架来理解与人工智能相关的风险。它根据人工智能系统的潜在风险对其进行分类,并根据它们捕获的数据以及对这些数据采取的决策或行动将它们分为不同的类别。EU obligations will vary depending on the category of AI being used.While an agreement on the context has been reached,the final text of the regulations is not yet available.However,the following sesses summarized the obligations under the AI Act,based on public可用信息。98 请注意,AI 法案的最早版本将 AI 系统定义为使用以下技术和方法之一开发的系统:(a)机器学习方法,包括有监督,无监督和强化学习,使用多种方法,包括深度学习。(b)基于逻辑和知识的方法,包括知识表示,归纳(逻辑)编程,知识库,推理和演绎引擎,(符号)推理和专家系统。(c)统计方法、贝叶斯估计、搜索和优化方法。9 欧洲委员会。(2021 年 4 月 21 日)。欧洲议会和理事会法规的提案,“制定人工智能协调规则(人工智能法)和修订某些联盟立法法”。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 12Introduction Summary 影响和范围 关键组件 后续步骤AI 法案采用基于风险的方法禁止违反联盟价值观,如基本权利。合格评定健康、安全的高风险,环境和基本权利。透明度义务冒充的风险或者欺骗.无义务没有高风险。不可接受的风险高风险有限的风险最小风险不可接受风险的 AI 系统示例 行为操纵。利用人的脆弱特征。公共当局的社会评分。用于执法的实时远程生物识别。高风险 AI 系统示例:评估信贷,健康或人寿保险或公共福利的资格。职位申请分析或候选人评估。产品安全组件。有限风险 AI 系统的示例:与消费者互动的 AI 系统。生成 AI*:生成或操作内容(图像,音频或视频)的 AI 系统。最小风险 AI 系统的示例:垃圾邮件过滤器。支持 AI 的视频游戏。*生成 AI 和基础模型的进一步具体义务将适用于这种基于风险的方法之外 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 13Introduction Summary 影响和范围 关键组件 后续步骤风险不可接受的 AI 系统涵盖哪些 AI 系统?允许操纵、剥削和社会控制实践的人工智能系统被视为构成不可接受的风险。这一类别禁止人工智能用于以下目的:伤害或可能伤害 AI 用户或其他人的操纵。利用特定群体的脆弱性。社会评分导致社会环境中有害或不利的待遇。不分青红皂白地刮擦面部图像。工作场所和教育中的情绪识别软件(有一些例外)。使用 AI 根据种族,政治观点或宗教信仰等敏感特征对人员进行分类。对个人的预测性警务(根据个人特征对未来犯罪进行风险评分)。人的远程生物识别(部分禁止,但执法部门有一些例外)。与此类别有关的义务是什么?由于此类 AI 系统具有不可接受的风险,因此禁止使用它们。高风险 AI 系统涵盖哪些 AI 系统?对安全或基本权利产生负面影响的人工智能系统将被视为高风险,并将分为两部分类别:1)用于产品下降的 AI 系统根据欧盟的产品安全立法。这包括玩具,航空,汽车,医疗设备和电梯。2)人工智能系统落入必须在欧盟数据库中注册的特定区域。8这些包括:关键基础设施,如公用事业的供应。教育和职业培训,例如,自动评分或排除考试。就业,工人管理和自营职业,例如,自动招聘和申请分类。获得基本的私人和公共服务和福利(例如医疗保健),自然人的信誉评估以及与人寿保险和健康保险有关的风险评估和定价。可能会干扰基本权利的执法系统,例如有关潜在罪犯的自动风险评分,深度伪造检测软件和证据可靠性评分。移民,庇护和边境管制管理,例如,旅行证件的真实性验证以及签证和庇护申请检查。例如,司法和民主程序,法律解释工具,以协助司法当局。大多数组织都使用这些高风险的 AI 系统,例如用于招聘目的的 AI。同样重要的是要注意,委员会可以通过委托行为为高风险人工智能系统类别增加更多用途。本报告的“后续步骤”部分对此进行了进一步讨论。与此类别有关的义务是什么?由于此类 AI 系统被认为是高风险的,因此它们必须遵守最严格的监管要求:充分的风险管理,以识别、评估和减轻人工智能系统生命周期中的风险。这项义务实际上需要实施专门的风险管理系统和完整的风险评估,这些风险评估必须持续完成;它们必须是活文件。值得注意的是,除非包括敏感的个人数据,以确保输入和输出不具有歧视性。技术文件必须证明遵守义务,并允许进行合规评估。记录事件以确保系统功能的可追溯性。记录跟踪和监测高风险情况,符合标准,并确保人工智能系统的输出不会导致任何歧视性影响。最低记录必须包括使用情况、数据和人员识别。在欧盟数据库中注册高风险 AI 系统。8 欧洲议会。(2023 年 12 月 19 日)。欧盟人工智能法案:关于人工智能的第一部法规。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 14Introduction Summary 影响和范围 关键组件 后续步骤ve var ris 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。透明度义务,以实现正确的 AI 解释和使用,并附有适当数字格式的说明。实施适当的人力监督。适当水平的准确性、健壮性和网络安全。高风险人工智能系统将接受合格评定程序,以确定它们是否符合人工智能法案的要求。作为供应商将它们投放市场之前的最后一步,必须签署合格声明,人工智能系统必须贴上确认欧洲合格的 CE 标志。然而,此类标准的细节仍然需要澄清。一旦人工智能系统上市,市场后监控义务将适用。这包括向相关市场监管机构报告高风险人工智能系统的严重事件或故障。部署人员的义务是什么?高风险人工智能系统的部署人员,包括提供基本服务的公共机构和私人实体,如银行、保险公司、医院和学校,承担确保负责任使用的具体义务。在部署 AI 系统之前完成基本权利影响评估(FRIA)。由受过训练的个人实施人类监督。确保输入数据与系统的预期用途相关。在出现国家级风险时暂停系统使用。向 AI 系统提供商报告严重事件。保留自动生成的系统日志。如果用户是公共机构,则符合注册要求。遵守数据保护影响评估的 GDPR 义务。验证是否符合 AI 法案,并确保所有相关文档可用 告知个人高风险人工智能的潜在用途。在向市场引入高风险人工智能系统之前,进口商和分销商承担着验证合规性,记录相关信息以及与提供商和市场监管机构进行沟通的责任。通用 AI、基础模型和生成 AI涵盖哪些 AI 系统?通用 AI(GPAI)和基础模型在最初的提案中没有定义,但已包含在当前的版本中,以解决 AI 系统服务的情况或集成到其他高 k 系统中。GPAI 系统旨在执行通常适用的功能,例如图像/语音识别,音频/视频生成,模式检测和其他应用程序。众所周知的示例包括生成 AI 应用程序,例如 ChatGPT 和 Dall-E。基础 AI 模型是针对广泛的数据进行大规模训练的,专为输出的普遍性而设计,并且可以适应广泛的任务。一个众所周知的例子是 GPT-4,这是最新的 ChatGPT 下的基础模型。解码欧盟 AIAct 15Introduction Summary 影响和范围 关键组件 后续步骤与此类别有关的义务是什么?GPAI 系统必须符合透明度要求,包括技术文档、符合欧盟版权法以及提供有关 AI 训练数据的信息。对于最强大的基础模型,将适用更严格的义务。提供商必须:进行模型评估,评估和减轻系统性风险,进行对抗性测试,向委员会报告严重事件,并确保网络安全和能源效率。单独监管此类 AI 系统的基本原理是供应链动态:基础模型可能继续成为下游 AI“提供商”和 AI“用户”的重要来源,他们将这些模型重新用于更具体的applications.Because of these downstretws actors lack of control and baterating position against providers of foundational models,the providers of these models are being required under the Act to assume a targeted share of the regulatory responsibility.我们在报告的下一步部分中讨论的领域。有限风险的 AI 系统涵盖哪些 AI 系统?一些旨在与自然人互动或生成内容的 AI 系统不一定符合高风险AI 系统,但可能会带来冒充或欺骗的风险。这包括大多数生成 AI 系统的输出。在实践中,以下 AI 系统将被识别在此类别中:Chatbots,例如基于 ChatGPT 的系统。情感识别系统。生物识别分类系统。生成“deepfake”内容的系统。与此类别有关的义务是什么?此类 AI 系统受透明度义务的约束。与影响广泛的开发和风险管理的高风险系统不同有限风险系统的意义和义务侧重于产出和用户:人们必须被告知他们正在与 AI 系统进行交互。暴露于(非禁止的)情绪识别或生物识别系统的人必须被告知系统的存在。Deepfake 内容必须被人为生成或操纵。风险最小的 AI 系统涵盖哪些 AI 系统?AI 法案没有定义此类别。它包括不属于其他类别的 AI 系统,例如启用 AI 的视频游戏或垃圾邮件过滤器。与此类别有关的义务是什么?除遵守一般产品安全标准外,此 AI 类别将不受严格义务的约束。然而,强烈鼓励促进建立行为准则,以促进在欧盟内更广泛地采用可靠的 AI。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 16后续步骤Introduction Summary 影响和范围 关键组件 后续步骤 2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 17Introduction Summary 影响和范围 关键组件 后续步骤随着人工智能法的商定文本等待欧洲议会和欧洲理事会正式通过,成为欧盟法律,组织可以积极开始为合规做准备。第一步是确保组织中合适的人员尽快开始为这些即将到来的法规要求做准备。早期参与使您有更多时间了解短期关键行动要求及其在整个 AI 生命周期中的影响。AI 法案确定了各种角色,包括法律,隐私,数据科学,风险管理和采购专业人员。负责遵守 AI 法案的多学科工作组应涵盖所有专业知识。第二步是全面了解组织中开发或使用的 AI 系统,并根据 AI 法案中定义的风险级别对其进行分类。如果您的任何 AI 系统属于最小,高或不可接受的风险类别,则可能需要在 2026 年之前或更早对 AI 系统的流程和操作进行重大更改具有不可接受的风险。至关重要的是,要尽快制定明确的计划,以管理必要的组织变革,并确保在新的法律框架生效后及时遵守。以下是您的组织可以立即和长期采取的关键行动列表,以帮助确保可持续地遵守当前法规和Define the appropriate g overnance 定义策略以确定 AI 系统的风险级别:为避免代价高昂的补救,您的政策应考虑这些类别背后的立法理由:(i)禁止的人工智能系统可能会实现操纵、剥削和社会控制实践;以及(ii)高风险 AI 系统可能对联盟中个人的健康,安全和基本权利产生重大负面影响。管理干系人期望:与包括客户和合作伙伴在内的所有利益相关者透明地沟通您的公司满足了 AI 法案的要求,并概述了期望和要求为每个利益相关者团体管理持续的合规性。实施(或改进)您的 AI 治理框架:实施标准和人工智能系统开发、部署和维护的良好做法,符合人工智能法案的要求和其他新兴监管标准,以确保一致性和可伸缩性。再次,利用自动化解决方案来管理合规性映射、义务跟踪和工作流管理的各个方面可以提供帮助。建立可持续的数据管理实践:实施和维护强大的数据治理框架,以确保长期的数据质量,安全性和隐私性-敏捷并适应未来的技术和法规变化。人工智能监管格局的未来发展。政策。沟通。治理。数据。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 1801Introduction Summary 影响和范围 关键组件 后续步骤了解您的风险 充分确定和管理 AI 风险的优先级:了解 AI 系统在内部和外部对公众,您的组织,利益相关者和整个生态系统构成的风险。这包括了解基本权利影响评估和系统风险评估涵盖的范围(relevant).Review and,if necessary,update update your data handling practices to ensure they comply with applicable laws,regulations and industry good practice,including data privacy and security.执行库存并对当前 AI 格局进行分类:审查现有的 AI 系统和用例,并对其进行分类,以识别需要遵守 AI 法案的高风险系统。利用自动检测和识别解决方案,例如自动化入学问卷或实施工作流平台,可以帮助加速支持和映射合规义务所需的发现、库存和分类活动。进行差距分析:进行彻底的差距分析,以确定不合规领域,并制定行动计划来解决这些差距。可以使用自动或快速的 AI 评估方法来加快此分析违反既定的治理框架或人工智能法合规义务。彻底测试 AI 系统:确保人工智能系统按预期运行。人工智能法案也建立了可用于测试的监管沙箱。利用自动化威胁检测、分析和智能解决方案可以大大减少支持测试和技术所需的工作量人工智能法案中概述的文档要求。定义第三方风险管理流程:如果您的组织使用基础模型来开发更具体的应用程序,则应持续监控这些提供商打算如何遵守 AI 法案。确定他们将提供哪些技术文档,使您能够管理风险和下游对您的影响。此类提供商可能会使他们的“可接受使用”政策更加严格,以避免其 GPAI 模型被用于他们评估的风险之外的目的的风险。优先。分类。评估差距。测试。启动需要缩放方法的操作 自动化系统管理和评估:优化、自动化和简化 AI 系统管理流程,确保模型透明、可解释和可信。利用自动化将技术指标和数据从 AI 系统和应用程序元数据提取并映射到治理框架,实现自动化合规和管理流程。文件和保存记录:建立文档存储库和管理系统,以确保适当的文档流程到位,以确保 AI 系统有据可查并符合 AI 法案。对员工进行 AI 道德和合规性培训:对您的员工进行有关 AI 系统的法律和道德影响以及预期用途的教育,确保他们准备好处理新的责任和合规任务。消费者条款和条件:在与消费者一起使用 AI 系统时,请考虑是否:(i)需要更改您的条款和条件、隐私政策和同意通知;(ii)制定你的“可解释性”声明,使消费者能够理解你的人工智能系统的决策过程。自动化。文档。火车。保护。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 190203Introduction Summary 影响和范围 关键组件 后续步骤对他们的关键行动-到长期预期监管对您的业务的影响 通过透明度建立消费者信任:优先考虑 AI 运营的透明度,以建立和维护公众信任,确保 AI 解决方案的长期可行性和接受度。从战略上与监管变化保持一致:使您的业务战略与不断变化的 AI 监管格局保持一致,预计未来人工智能法案的修正案。合作并保持开放的对话:参与与人工智能监管相关的行业讨论和政策制定过程影响并领先于未来的监管趋势。发展道德和治理 优先考虑对 AI 伦理和治理的长期投资:建立一个负责 AI 道德和治理的专门团队或部门,根据监管要求持续监控和指导 AI 实践。维持正在进行的 AI 素养和培训计划:制定长期培训计划,以提高整个组织的 AI 素养,培养道德 AI 使用和合规的文化。在创新、设计和控制中嵌入值得信赖的 AI 在道德范围内创新:培养尊重道德界限和监管要求的创新环境,平衡技术进步与社会责任。通过设计实现可信的 AI 和安全性:调整 AI 系统的构建,以在设计阶段包括可信 AI 和 AI 安全性。定期审核和更新 AI 系统:对 AI 系统进行定期审查和更新,以确保持续的合规性,并整合 AI 透明度和可解释性方面的改进。2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 20010203Introduction Summary 影响和范围 关键组件 后续步骤rwn这与我们所做的如何联系我们相信人工智能的变革力量,只有与人类的专业知识、聪明才智和有效的风险管理相结合,它才能充分发挥其潜力。在毕马威,我们的宗旨是激发信心和推动变革。在我们的起源可以追溯到 150 多年前,毕马威员工在利用新技术和新技术的力量方面发挥了主导作用为实施这些措施提供保证和指导。通过将深厚的行业专业知识和工艺诀窍与领先的技术联盟相结合,毕马威专业人员正在加速人工智能的价值,并为世界各地的客户、人员和社区带来改变。人工智能法案的许多方面将对组织实施和解决具有挑战性,特别是在 AI 应用程序的测试,透明度和可解释性的技术文档方面。每个 AI 应用程序都有自己的业务流程,影响和风险。毕马威的专业人员可以帮助您简化合规流程,并成功适应 AI 法案的挑战。我们的团队可以实施和扩展您的 AI 治理、管理和监控计划,同时分享之前参与的关键经验和我们自己的 AI 自动化旅程,以帮助改进流程和政策。毕马威受信任的 AIKPMG Trusted AI 是我们以负责任和道德的方式设计,构建,部署和使用 AI 解决方案的战略方法和框架,因此我们可以充满信心地加速价值。它是基于我们在 AI 风险管理方面的丰富经验和现有投入而开发的全球标准。这个多方面的框架涵盖了运营业务线、合规线和内部审计,整合了 AI 解决方案、治理和评估方面的广泛专业知识。它设计了控件和工具,可帮助建立值得信赖和符合道德的评估、设计和部署 AI 系统。我们提供广泛的方法,使您的组织能够有效地管理这些即将到来的监管变化。通过我们的服务,我们 i协助您开始您的转型和合规之旅,并根据您的业务要求进行定制。要了解更多信息,请访问:2024 版权所有由一个或多个毕马威国际实体拥有。毕马威国际实体不向客户提供服务。保留所有权利。解码欧盟 AIAct 21PnIntroduction Summary 影响和范围 关键组件 后续步骤Acknowledgments我们衷心感谢以下主题专业人员为本报告做出的贡献。Leanne Allen合作伙伴毕马威在英国 leanne.allen kpmg.co.uk斯图尔特 富勒合作伙伴毕马威澳大利亚 stuartfuller.au保罗 亨宁格合作伙伴毕马威在英国 paul.henninger kpmg.co.uk弗朗
展开阅读全文
相关资源
相关搜索
资源标签

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642