隐私计算法律与合规研究白皮书-44页_1mb.pdf

返回 相关 举报
隐私计算法律与合规研究白皮书-44页_1mb.pdf_第1页
第1页 / 共44页
隐私计算法律与合规研究白皮书-44页_1mb.pdf_第2页
第2页 / 共44页
隐私计算法律与合规研究白皮书-44页_1mb.pdf_第3页
第3页 / 共44页
隐私计算法律与合规研究白皮书-44页_1mb.pdf_第4页
第4页 / 共44页
隐私计算法律与合规研究白皮书-44页_1mb.pdf_第5页
第5页 / 共44页
点击查看更多>>
资源描述
隐私计算 法律与合规 研究 白皮书 ( 2021 年 ) 隐私计算联盟 中国信息通信研究院云计算与大数据研究所 2021年 12月 引 言 自 党的十九届四中全会将数据列为生产要素以来,数据的开放共享、交换流通成为大数据产业发展的重点。快速发展的隐私计算等数据流通新技术为产业“破局”提供了关键思路,成为建设和完善数据要素市场的重要抓手。 隐私计算( Privacy-preserving computation)是指在保证数据提供方 不泄露原始数据的前提下,对数据进行分析计算的一系列信息技术,实现 数据在流通与融合过程中的“可用不可见”。 从隐私计算实现的目标来看,能实现隐私保护的同时支持数据价值分析 的技术方案都可 被 列入 隐私计算 的范畴 。 其中 典型的技术路线包括 多方安全计算( Secure Multi-party Computation ,MPC) 是多个参与方基于密码学技术共同计算一个目标函数,保证每一方仅获取自己的计算结果,无法通过计算过程中的交互数据推测出其他任意一方的 输入和输出数据 的技术; 联邦学习( Federated Learning, FL)可以实现在本地数据不出库的情况下,通过对中间加密数据的处理来完成多方对共享模型的机器学习训练; 可信执行环境( Trusted Execution Environment, TEE) 是 将软硬件方法构建的安全区域与其他应用 和 操作系统隔离开,使得操作系统和其他应用无法访问或更改该 安全 区域中的代码和数据,从而 达到 保护敏感数据和代码 效果 的技术; 同态加密( Homomorphic Encryption, HE) 是基于数学难题的计算复杂性理论的密码学技术,能确保在密文上直接进行计算后对输出进行解密,得到的结果和直接明文计算的结果一致。 零知识证明( Zero Knowledge Proof, ZKP) 是基于密码学技术,证明者能 在不向验证者提供任何有用 信息的情况下,使验证者相信某个论断是正确的; 差分隐私( Differential Privacy, DP) 是通 过对数据集添加噪声,避免相邻两个数据集在发布聚合计算结果时单条数据记录的泄 露 。 数字经济兴起以来,各国 通过法律法规和国际条约来 规范数据的采集和使用,提出了授 权同意、匿名化、安全审查等一系列合规要求,其目的在于保障国家安全、市场竞争秩序、个人隐私、 人身及财产安全、个人数据自主权利等 法益 。在数据合规日趋收紧的背景下,隐私计算 提供了合规前提下充分挖掘数据价值、促进数据流通的一种 可行的技术 解决方案。但与此同时,如何评估隐私计算技术及 产品的合规性 、如何 约定参与方的权利义务 以及如何规避法律风险等问题也成为行业普遍关心的热点话题 。 本白皮书 从隐私计算的合规意义和常见的误区入手, 对隐私计算的参与 方 及 相互 间的法律关系进行定义和分析。在此基础上,详细分析了 隐私计算 参与 方 应 关注的法律和合规要点,并给出 相应 安全和合规方面的建议。 为进一步分析隐私计算的 合规 提升效果,我们 对 广告营销、企业 融资 风控 、 个人 信贷风控 和人脸识别四 个场景 的 技术方案及其 隐私保护效果进行了分析。最后,基于隐私计算发展的现状和未来的需求, 产业 和监管的互信互动将有助于进一步推进隐私计算 乃至数字经济的发展, 本 白皮书通过对产业的健康发展进行 展望,以期隐私计算为数据价值的挖掘和国民经济的发展带来更大的价值。 版权声明 本报告 版权属于 隐私计算联盟及中国信息通信研究院云计算与大数据研究所 ,并受法律保护 。 转载、摘编或利用其它方式使用 本报告文字或者观点的,应 注明 “ 来源: 隐私计算联盟、中国信通院云大所” 。违反上述声明者,本 院 将追究其相关法律责任。 编写委员会 主要编写单位 (排名不分先后): 中国信息通信研究院云计算与大数据研究所 清律律师事务所 华控清交信息 科技(北京)有限公司 蚂蚁科技集团股份有限公司 上海富数科技有限公司 同盾科技有限公司 北京德和衡(上海)律师事务所 中移动信息技术有限公司 中国联合网络通信有限公司研究院 北京 数牍科技有限公司 联易融数字科技集团有限公司 参与编写单位 (排名不分先后): 北京市 竞天公诚律师 事务所 京东科技控股股份有限公司 编写组主要成员 (排名不分先后) : 仵姣姣 闫 树 吕艾临 侯 宁 熊定中 庄媛媛 靳 晨 王云河 彭 晋 白晓媛 昌文婷 方 竞 姜 康 彭宇翔 孟 丹 娄 鹤 陈国彧 朱明烨 范东媛 王 鑫 曹 咪 张立彤 史金雨 金银玉 单进勇 陈永侠 陈 曦 魏 凯 孙中伟 李 帅 袁立志 朱 垒 目 录 一、 隐私计算的合规意义 1 (一 ) 隐私计算有助于提升数据合规 1 (二 ) 隐私计算应用的常见误区 8 二、参与主体及其法律关系 10 (一 ) 参与主体的定义和主要职能 10 (二 ) 参与方的法律定性 12 三、隐私计算的法律和合规要点 14 (一 ) 明确数据处理的合法性基础 14 (二 ) 事先评估全流程风险 15 (三 ) 参与方管理 17 (四 ) 数据源合规 19 (五 ) 关注技术方案的安全性 20 (六 ) 明确计算模型的归属 21 (七 ) 关注产出结果的合规性 22 (八 ) 关注自动化决策的风险 23 (九 ) 日志审计和监督机制 23 四、隐私计算的应用实例效果评估 25 (一 ) 广告营销场景 25 (二 ) 个人融资风控场景 27 (三 ) 小微企业信贷风控场景 29 (四 ) 金融穿透式监管 场景 30 (五 ) 人脸识别场景 32 五、隐私计算合规发展的展望 35 (一 ) 鼓励创新,留足空间 35 (二 ) 以点带面,逐步深入 36 (三 ) 多方参与,各尽其能 36 (四 ) 层级分明,分类监管 37 1 第一章 隐私计算的 合规意义 2021 年 数据安全法与个人信息保护法 的 出台,与网络安全法 一同 形成了数据合规领域的“三架马车” ,这标志着数据合规的 基本 法律架构已初步搭建完成。在此基础上,关注重点行业、新兴技术的 法律 和司法解释 也 在今年密集 发布 ,一方面为产业、技术的发展提供了更为清晰的指引,另一方面也意味着监管强度日渐收紧 、合规压力日益凸显 。 因此, 不同行业、不同主体 间的数据融合流通面临 较大 的合规压力 , 平衡数据价值挖掘 需求 和满足合规要求成为 数据流通 产业急需解决的问题。 (一 ) 隐私计算 有助于提升数据 合规 数据安全法第三条指出,“数据安全,是指通过采取必要措施,确保数据处 于有效保护和合法利用的状态,以及具备保障持续安全状态的能力”。 第七条也表明,“国家保护个人、组织与数据有关的权益,鼓励数据依法合理有效利用,保障数据依法有序自由流动,促进以数据为关键要素的数字经济发展”。可以看出, 数字经济的发展需要在 保护数据安全 的基础上 发挥数据的使用价值。 隐私计算技术得 2 以在不转移或泄露原始数据的前提下,实现数据融合“可用不可见”的效果,为数据要素 的 融合流通提供了一种可能的合规“技术解”。 1.隐私计算有助于 履行 安全保障 义务 隐私计算 可作为防止 未经授权 访问 、减少 个人信息泄露、篡改 和丢失的一种技术手段 , 还可以 实现 在 不 获知其他参与方 原始数据的情况下处理 数据。因此, 隐私计算可被理解为是一种加强数据安全的技术措施 ,有助于 保障数据处理过程中 各方 的 数据安全,为防范安全风险提供技术 支撑 。 从法律层面 而言 , 应用隐私计算 也 属于履行法律要求 的数据安全保护义务 , 有利于优化数据应用 安全 环境和维护 相关 数据主体 的 权益 。我国 相关 主要 法律 条款 如 表 1 所示 : 网络安全法 第四十二条 网络运营者不得泄露、篡改、毁损其收集的个人信息 ;未经被收集者同意,不得向他人提供个人信息。但是,经过处理无法识别特定个人且不能复原的除外。 网络运营者应当采取技术措施和其他必要措施,确保其收集的个人信息安全,防止信息泄露、毁损、丢失。 在发生或者可能发生个人信息泄露、毁损、丢失的情况时,应当立即采取补救措施,按照规定及时告知用户并向有关主管部门报告。 数据安全法 第二十七条 开展数据处理活动应当依照法律、法规的规定, 建立健全全流程数据安全管理制度,组织开展数据安全教育培训, 采取相应的技术措施和其他必要措施,保障数据安全。 利用互联网等信息网络开展数据处理活动,应当在网络安全等级保护制度的基础上,履行上述数据安全保护义务。 个人信息保护法 3 第五十一条 个人信息处理者应当 根据个人信息的处理目的、处理方式、个人信息的种类以及对个人权益的影响、可能存在的安全风险等,采取下列措施确保个人信息处理活动符合法律、行政法规的规定,并 防止未经授权的访问以及个人信息泄露、篡改、丢失: (一)制定内部管理制度和操作规程; (二)对个人信息实行分类管理; (三)采取相应的加密、去标识化等安全技术措施; (四)合理确定个人信息处理的操作权限,并定 期对从业人员进行安全教育和培训; (五)制定并组织实施个人信息安全事件应急预案; (六)法律、行政法规规定的其他措施。 第六十九条 处理个人信息侵害个人信息权益造成损害,个人信息处理者不能 证明自己没有过错的 ,应当承担损害赔偿等侵权责任。 表 1:数据安全义务相关法律条款 2. 隐私计算 有助于 防止数据滥用 个人信息保护法 确立了个人信息处理的“最小必要”原则,该原则应当 贯穿数据处理 的 始终。“最小必要”原则可 被 理解为要求企业和公共机构 等数据处理者 以实现产品和服务目的为标准,在功能可实现的前提下保持克制,在最小范围内收集并使用个人信息。个人信息采集阶段的“最小必要” 合规要求较容易达到,例如 将产品使用功能框定在具体范围内、 梳理 需要采集的数据目录, 并严格将数据采集限制在目录范围内 等等 。但 数据使用 环节 的“最小必要” 要求则 较难达到, 同时也 往往 因缺乏事中、事后的监督与审计机制而 难以 对数 4 据的后续 失控 流转追责 。 数据 的 “可用不可见”能够有效防止数据明文在使用时被复制而导致的数据滥用 , 得以 保证数据的机密性和完整性 。 例如 多方安全计算 运用密码学算法对数据 进行 密文计算 ,可信执行环境等机密计算 使用 软硬件方法构建的安全区域 保护其中 的数据 。 如果可信执行环境中的代码是按照最小必要的原则设计的,那么基于可信执行环境的 技术方案也是可控的、 能够满足最小必要原则 的 。 在此基础上 , 参与方 可以 实现 对每一次的数据使用进行授权, 在 授权后 再 由各参与方共同签订合约,明确算法逻辑、数据用量和使用次数,控制 数据滥用, 成为数据使用过程中践行“最小必要”原则的技术解。 3. 隐私计算 有助于 实现一定条件下的 匿名化 根据个人信息保护法 ,匿名化是指个人信息经过处理 ,无法识别特定自然人且不能复原的过程。从定义而言 ,绝对的匿名化是 指无论关联 多少数据都无法识别个人 、 无论采用何种技术都不能复原个人信息 的状态 。 然而, 在 现有技术发展水平下, 绝对的匿名化 在统计等场景外暂时无法实现 , 绝对的匿名化 也会 大大减损数据的使用价值,可能 将导致数据 在大多数应用场景中 无法 使用 , 这 与个人信息保护法中“促进个人信息合理利用”的原则 存在一定程度的抵触 。因此,匿名化应当 是在一定条件下( 例如 在可实现的算力、 合理 时间范围内等 )的相对匿名化。 换言之,当一种技术方案能够实现还原部分原始数据所需要的时间、算力等成本远远超出使用该部分数据可能获得 5 的价值时, 我们认为这种技术方案已经实现了事实上的 相对 “匿名化”。 使用隐私计算技术本身不需要对数据进行 事先的 匿名化处理,但隐私计算技术可 作为 匿名化技术方案的一个组成部分 。 多方安全计算、同态加密、零知识证明和差分隐私等技术能够实现输入数据和输出数据的隐私保护,是实现相对匿名化的有效手段。此外,结合了数据加密、去标识化、可信执行环境、访问控制等技术的综合解决方案,通过构建可信受控的计算环境,对个人信息进行去标识化、加密等处理,使 所有的计算 均 基于处理后的数据展开,并通过技术手段对试图关联或还原个人信息的高危行为进行拦截, 可以 实现数据计算过程中的“可算不可识”;在计算结果输出时,在可信受控环境中对计算结果进行差分隐私、泛化等处理, 有助于 保障 数据 在非受控环境下无法重识别 , 全方位降低隐私泄露和重标识风险,实现在一定条件下的匿名化。 4. 隐私计算有助于减轻授权同意 的 合规隐患 以个人数据为例,在传统中心化的建模中参与方可以获取到各方的原始数据。因此,可能接触到原始数据的所有参与方都应当受到个人信息保护的诸多复杂限制。 授权同意是实践中个人数据使用最主要的合规基础之一,复杂、高昂、难落地的授权同意合规负担一定程度上阻碍了数据的流通。 包含隐私 计算的技术方案有助于降低参与方在数据融通中的授权同意压力 ,两种技术方案的授权同意 模式 如图 1所示。 6 图 1 两种技术方案授权同意的差异 在隐私计算中,假设获取数据的一手数据源首先获得了个人信息主体没有权利瑕疵的授权同意,或在获取数据后对数据进行的脱敏、加密处理使计算数据满足了法律要求的匿名化要求,那么输入模型的数据不再属于个人信息的范畴,此后其他参与方对数据的计算和分析也因此可能不再需要经过个人信息主体的重复授权,从而减少了 数据流通 过程中由授权引发的法律风险和成本支出。 为了进一步降低 合规 风险 , 我们仍建议参与方在选择授权同意作为主要合规基础时,根据具体涉及数据的类型和敏感程度,将授权同意与去标识化 /匿名化的技术方案加以有机融合,在数据流通的全流程综合降低合规风险。 授权同意涉及的主要法律条款如表 2 所示: 网络安全法 第四十二条之一 7 网络运营者不得泄露、篡改、毁损其收集的个人信息; 未经被收集者同意,不得向他人提供个人信息。但是,经过处理无法识别特定个人且不能复原的除外。 民法典 第一千零三十八条之一 信息处理者不得泄露或者篡改其收集、存储的个人信息; 未经自然人同意,不得向他人非法提供其个人信息,但是经过加工无法识别特定个人且不能复原的除外。 个人信息保护法 第四条 个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息, 不包括匿名化处理后的信息 。 个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开、删除等。 表 2 我国授权同意相关法律条款 5. 隐私计算有助于 开发数据的使用价值 在数据确权这一核心问题尚未得到解决的前提下, 企业等市场主体的 积极性 因其在数据生产、数据管理方面投入的劳动成果 难以 得到法律认可而 受到一定程度的制约 ,主体是否对其所有的数据享有所有权等问题也使部分企业迫于合规风险而不敢、不愿参与数据流通 。 隐私计算有助于在 不对数据 现有控制状态 产生 影响 的基础上, 满足数据 流通 的现实需求 。 以多方安全计算为例,多方安全计算能够实现在不获取明文数据 的前提下利用数据 的使用价值,即在保证原始数据控制权不发生改变、保证数据所有者权益的前提下传递数据的使用价值。在当下数据权属问题较难明确的前提下,通过“可用不可见”的技术方案将数据的使用价值分离 出来 ,由此 为 后续 数据 的 使用 和交易提供 技术基础。 对此,欧洲已有实践先例。 2015 年,爱沙尼亚应用研究中心( CentAR)对大学期间工作与未能按时毕业之间的关联性进行研究。 8 CentAR 使用了基于 MPC 的解决方案,将 个人纳税数据库和高等教育数据库 中的数据进行关联和分析 ,并使 最终 输出 的 统计数据 不包含个人信息。 爱沙尼亚数据保护机构判断 在 该案例 中, CentAR 没有对 个人信息 进行处理 , 因而也 无需获取个人 的 授权同意。 (二 ) 隐私计算应用的常见误区 由 于 数据安 全保护义务与数据处理使用的具体规则仍有待进一步明确 ,隐私计算的应用仍存在合规边界不清晰的问题, 在 实际 应用中 也 存在 一些 误区。正确 认识技术 是 发挥 其最大 使用价值 的必要前提 ,也是避免滥 用数据 、规避合规风险的应有之义 。 一个典型的 误区是“ 使用隐私计算即可实现个人数据的匿名化 ” 。隐私计算通过使用基于信息混淆、统计学、密码学等的各类方法,将数据泄露的可能性大大降低,但由于技术的实现方式庞杂,虽然有效的保护了数据处理的过程,仍然需要对处理的结果进行评估,如其在某些场景下可反映出单个个体的某些特征,也无法满足匿名化“不可识别、不能复原”的 要求,输出结果依然属于个人信息,需要满足个人信息保护的合规要求 。 第二个 误区是 “ 如果隐私计算的参与方未获得其他方的原始数据,即 无需获得 个人的 授权同意 ” 。 由于 授权同意属于数据处理的合法性基础之一, 而 隐私计算属于对数据进行处理、使用的一种技术手段,在流程和逻辑上需要依赖于合规基础的存在。 因此 ,当参与方选用授权同意这一合规基础时, 使用隐 私计算处理数据这一目的或方式本身 9 需要被囊括在授权同意的内容当中,而非可以豁免授权同意这一前置条件。 用户依然享有知情同意和拒绝等权利,企业也需要自证其数据的实际处理控制在用户授权的范围内。 第三个误区是“ 当隐私计算未对原始个人数据进行处理时,不属于处理个人数据 ”。 由于隐私计算本身 并非匿名化的必然实现方式 ,即使未获取到其他参与方的原始个人数据、仅获取数据切片、模型梯度等数据,也 因为存在客观上可逆的可能性而 仍然属于对个人数据进行处理。 例如 在终端 使用联邦学习对用户行为进行建模时, 参与方 需要在终端 收集用户的出行、 消费等数据,并将模型的梯度信息进行交换。 由于梯度数据被还原为原始数据的可能性较高,梯度数据仍然属于 “个人信息”,仍然受到个人信息保护相关法律法规的规制。 总之, 隐私计算技术有利于 解决 参与方 间互不信任而又 需要进行数据流通的现实需求,有助于 应对 个人信息保护中“最小 必要 ”和“ 保护数据 安全”的要求, 但无法实现跳过用户知情同意的目的,对 于是否达到保证匿名化效果,还需按实际情况进行评估 。所以, 隐私计算无法绝对豁免合规要求,需要参与方根据具体应用场景、技术方案、参与方的约定等判断合规 风险点。 本白皮书将会在第三章对各类法律与合规风险进行展开 阐述 。 10 第二章 参与主体 及其 法律关系 隐私计算的参与主体众多,承担的义务和职能各不相同 。 明确各方的 角色 及其 在各环节的权利、义务和责任将有助于顺利推进项目的进行。 (一 ) 参与主体的定义 和主要职能 按照参与方在隐私计算过程中承担的职能,可将参与方划分为 数据提供方、技术提供方 和 结果使用方 三 类 。 为了对数据的使用进行监管或评估,参与方也可能会 考虑 引入独立的第三方 机构 。 数据提供方 是负责提供模型训练 数据或 隐私计算 实际运算数据的主体。 数据提供方 的义务主要包括 从数据控制者处获得数据使用的授权,向其他参与 方 告知数据使用的方式, 对数据源的质量、合规、可用性 等承担责任。 其他义务可能包括负责数据的本地存储,对数据进行预处理 等等 。 技术提供方 是 负责提供隐私计算所使用的 平台 设施、技术方案、管理方案的 主体, 可 根据参与方所承担的具体 职能 被分为 计算方、 调度方 、算法提供方 和平台提供方 等主体。 其中 计算方 负责提供算力支持,依照约定的计算方法接受数据提供方的输入因子并进行计算,并 11 在计算结束后将输出因子发送给结果使用方; 调度方 负责配置计算任务, 管理和协调其他参与方执行任务; 算法提供方 负责提供计算逻辑和算法参数。 值得注意的是,当参与方对算法参数有保护要求时, 可将算法参数视为 机密 数据,并视情况将该算法提供方视为数据提供方;平台提供方 则为综合上述全部或部分职能的角色,在实践中有时也 作为技术方案的总包方 。 结果使用方 是接收隐私计算模型产出成果的主体, 在实践中通常需要依照参与方对结果使用目的、范围和权限等方面的约定对结果进行使用。 第三方机构 通常包括认证机构、评估机构等主体, 本身不直接使用数据也不 直接 提供与数据处理相关的服务,其职能 包括 参与 方 资质认证与准入审核、数据质量评估、算法安全性评估、存证信息审计 等。 图 2 隐私计算参与方之间的关系 在实际应用中,数据提供方、技术提供方和结果使用方 三者 可能因参与方承担多重角色而 存在重合 。 例如参与方 A 和参与方 B 共同进 12 行联合建模和结果预测, A 和 B 均提供部分用户数据,都需要获取预测结果,参与方 A 负责提供隐私计算平台,那么参与方 A 和 B 均是数据提供方和结果使用方,参与方 A 同时也 是 技术提供方。 (二 ) 参与方的法律定性 1.个人信息处理者 作为“个人信息处理者”,需要依据中华人民共和国个人信息保护法及其他相关法律法规的要求,遵循个人信息处理的规则,确保个人信息处理活动合法合规。 构成个人信息处理者的关键判断依据在于是否能够 自主决定 个人信息的处理目的和 处理方式 。通常而言,当数据提供方和结果使用方可以对隐私计算过程中 个人信息的处理独立施加影响时 , 两方 均为个人信息处理者。 对技术提供方而言,如果仅提供算力、 数据传输或存储等技术工具,则因其 不拥有对个人信息的处理目的和方式的决定权而不属于个人信息处理者。 2.委托人与受托人 对技术提供方和第三方机构而言,其对于个人信息的处理往往需要遵循数据提供方或结果使用方的指示。因此,两类主体之间的关系属于中华人民共和国个人信息保护法第五十九条项下的 “委托人”和 “ 受托人 ”。作为受托人 ,技术提供方 等主体 应采取必要措施保障所处理的个人信息的安全,按照与参与方的约定处理个人信息,不得超出约定处理数据,处 理结束后应当将个人信息返还个人信息处理者 13 或删除,不得超出法律许可和约定的期限保留数据。对于委托技术提供方进行个人信息处理的委托方,均需对技术提供方的选任、处理过程等承担相应的选任、监督责任 。 14 第三章 隐私计算的 法律 和 合规要点 在法律和监管层面,隐私计算技术乃至数据交易流通产业所涉及的合规红线仍不明确。在技术层面,要求隐私计算参与方完全避免技术固有的风险也不具有现实可能性。 但 我们仍建议 参与方 在分析技术产品和 技术 方案风险点的基础上,探索平衡合规、效率和精度要求的实践路径。 图 3 隐私计算法律与合规关注要点 (一 ) 明确数据处理的合法性基础 个人信息处理的一般原则要求数据处理者在收集、使用用户数据前获得有效 的 授权同意,明确 数据 使用的目的、方式、范围和规则等 15 内容。即使隐私计算的过程可能并不涉及到 原始 数据的 流转, 但由于隐私计算对数据的处理仅在特定条件下可达到匿名化的效果 , 数据处理的规则仍应得到 严格的 遵守。其中,特别要注意 用户授权链条的完整性 ,即用户的授权应当覆盖全部的隐私计算参与方 和隐私计算全部的操作行为 。 除授权同意外,个人信息保护法还列举了其他几种数据处理的合法性基础,如:为订立、履行个人作为一方当事人的合同所必需;履行法定职责或义务;应对突发事件;为公共利益实施新闻报道和舆论监督或处理已经合法公开的信息等等。特别是在金融风控、政务、医疗数据处理等场景下, 隐私计算的参与 方可以 结合具体业务 场景 选择最为适合的 数据处理 合法性基础 。 (二 ) 事先评估全 流 程风险 根据我国个人信息保护法第五十五条的规定,当个人信息处理者有处理敏感个人信息, 利 用个人信息进行自动化决策, 委托处理个人信息、向其他个人信息处理者提供个人信息、 公开个人信息 等情形时, 应当 事前进行个人信息保护影响评估,并对处理情况进行记录 。因此, 参与方首先需要 对隐私计算 的具体场景是否涉及敏感个人信息、是否会对个人权益产生重大影响等事项 进行事前的个人信息安全影响评估。评估的 具体 内容包括但不限于数据的处理目的和方式是否合法、正当和必要 ;对个人权益的影响及安全风险 ;保护措施是否合法、有效及与风险程度相适应等等。 16 第二, 参与方 需要 动态评估数据的使用场景是否始终符合用户的授权和参与方的约定 。根据个人信息保护法的规定,“处理个人信息应当具有明确、合理的目的,并与处理目的直接相关”。 例如 即使 参与方接触 的 数据 是数据模型 、切片数据 、 加密数据等 衍生 数据,但对原始数据在本地服务器进行建模、 对衍生数据进行 计算或处理的行为本身同样应当 被涵盖 在用户授权的范围内。例如,在联合建模的数据处理环节, 参与方 需要对模型逻辑及各环节的数据需求进行梳理。若实际模型逻辑和需求与参与方加入时报备的不一致,则可能存在超范围使用数据的风险。 第三, 在数据输入模型后,技术提供方应 根据数据的类型和安全级别 等因素 选择相适应的技术 。当对多个数据源提供的数据进行汇聚或 融合计算时,还需对数据汇聚、融合后的安全级别进行 动态的监控和 评估。当输入的数据包含模型、参数等,也需要单独评估其逻辑的安全性和合理性。 第四, 隐私计算的参与方需要在保证安全模型完备性的前提下 对每个节点的安全性进行考量 。在节点加入时,参与方应按照隐私计算平台的安全假设及相关规则, 评估 节点加入给隐私计算平台带来的影响。当涉及到数据提供方、算法提供方节点时,还需对输入平台的数据、算法等的安全性进行审查;另外,隐私计算平台也可通过节点加入的自动化审核和处理,减少人为干预带来 的 不可 控风险。 第五, 数据处理的过程也应当 注重数据安全 保护 。参与方需要通过技术方案和协作机制确保隐私计算的过程数据、模型数据和最终计 17 算结果等数据的安全。参与方也需要避免计算模型的泄漏,防止攻击者通过逆向学习等方式获得原始数据。 第六,在数据存储方面, 技术提供方需要采用适当的密码算法确保 数据 和模型的 存储安全 , 及时清除内存中的数据, 确保在处理敏感数据后无留存或隐通道传输,并依照参与方的约定对外部存储的数据进行不可还原的删除或匿名化处理。当应用 隐私计算技术实现数据更大规模、更大范围的流动时,可能造成海量数据的汇聚,而由数据量提升带来 的 安全风险可能呈指数级增长,超出参与方可控的范围。为降低 风险,参与方可选择数据的分布式存储,避免大量明文数据的物理汇聚。 (三 ) 参与方 管理 由于隐私计算的参与方 涉及多个主体,一方 的合规风险可能会传导到其他参与方。 再加上 目前隐私计算的落地应用 和 具体 规则 也仍处于早期自发探索的阶段, 参与方之间的 法律关系也较为复杂 ,在正式开展合作前明确参与方的管理机制将有助于 控制 业务风险,顺利推进项目 的开展 。 参与方需要在应用隐私计算前通过协议的方式 明确参与方之间的权利义务 , 构建完善 的配合和监督 机制 ,以 确保隐私计算任务 的 全流程得以有章可循,也避免在发生数据泄漏或其他侵害个人信息权益 等 事件时出现责任不清或互相推诿的情况。 具体而言 , 首先 由于隐私计算的参与方可能是动态、多元的,设定参与方准入的标准将有助于避免与不适格的主体进行合作,降低整 18 体的风险。例如可以要求参与方具备较全面的 数据 安全管理能力,具备处理特定类型数据必要的资质 等等 。 第 二 ,参与 方 需要 确认 责任义务划分 是否明确合理 , 否 则 将 可能会 影响计算任务的顺利推进。例如需要对 个人 信息主体 行使 查询权、复制权、删除权等 设计 具体的 分工配合 机制,避免由于 部分 主体的推诿而使合规风险扩大至所有参与方。 第 三 ,参与方应 明确对技术提供方的 具体 要求 , 确保技术 方案具有安全性和 可靠性 、 数据结果具有 可用性 。 此外,参与方也需要充分了解技术方案固有的风险,明确在出现数据泄露等风险时的应对机制和责任分担。 第 四 ,参与方也需要 对合作方进行 必要的 风险提示 。 在进行隐私计算 产品和 服务的推介时,建议厂商使客户和营销方对隐私计算有基本的认知,避免对 其 效果和功能进行 夸张描述, 避免 其 对隐私计算产生误解。例如,数据合作各方应当避免简单、直接将隐私计算作为“匿名化”的实现方案或替代方案。隐私计算在理想情况下将无法追溯到数据主体,这是隐私计算的一种优势,但不能与“匿名化”完全等同,也不能将 使用 隐私计算与 彻底 满足 数据合规 要求相 混淆。 第 五 , 项目流程管理是 合作方合规管理的重要 组成部分 。在签订合作协议时, 各参与方 应 制作项目计划 等 文件,明确立项、中期测试、验收、结项的各个时间节点和核验方式,以便及时发现问题并采取措施,加快响应速度和 降低数据泄漏风险。在项目计划中,各参与方还可以对合法合规 性 、技术安全性、风险防控、投诉机制等内容予以细 19 化 , 并以此作为内部 管理 的标准,以便在合作中更好地 将合规管理 落实到业务流程中。 最后,参与方也可以考虑 引入第三方机构 。 第三方机构 能够提供的服务涵盖安全评估、合规评估、持续的安全审计等, 能够为隐私计算项目提供更为客观、公正和专业的审核和论证, 第三方机构的参与将有助于帮助参与方及时识别风险、落实安全保障义务、提供中立的审计鉴证等等。 (四 ) 数据源合规 隐私计算 是一种 多元数据的跨界合作,因此 隐私计算的数据来源具有 一定的 复杂性 ,任何一个数据源受到污染均可能影响输出结果的质量 。 在个人信息保护法之下, 参与方 共同进行隐私计算 很 可能会构成共同处理个人信息。 因此,数据源合规成为了牵一发而动全身的问题,我们 建议在将数据投入计算之前, 数据合作各方应当各自核查及确认其数据来源的合规性,避免影响隐私计算的整体安全与合规 。 隐私计算 本身不能 解决数据来源的合规性问题, 数据提供方需要根据数据的不同来源对数据的合规关注点进行梳理和确认。 例如 常见的数据来源包括 直接 数据源 ( 例如 移动终端、 APP、小程序、 互联网网站、物联网设备、营业厅等); 间接 数据源 ( 例如 向 提供 方 采购、与 参与方 共享 的数据 等); 公共场所采集( 例如 人脸识别 、 步态识别等 个人身份识别采集等)。 对 直接数据源 而言,最主要的合规关键点在于 获取个人信息主体 20 充分自主、 清晰明确的 授权同意 。 当 存在 获取 授权的方式不合规、用户隐私协议 不规范等问题 时 ,则可能 为数据的后续使用 和其他参与方带来合规隐患; 此外,根据 数据安全 法、关键基础设施安全保护条例等法律法规 的 要求,对于可能对国家、社会、民生造成严重影响的数据,应 确保该数据标的 满足风险 评估、 备份、加密和境内存储等安全保障义务 , 或在主管机构提供的平台 进行 监管下的“场内”融合和共享。 对 间接 数据源 而言, 应要求 数据提供方 说明个人信息 的 来源, 了解已获得的授权同意范围 并 尽可能 对其合法性 、真实性 进行确认; 当隐私计算 所需进行的个人信息处理活动超出授权同意范围的,应 再次征得个人信息主体的明示同意 等等 。 此外,参与方也需要关注重要数据、未成年人数据、公共场所采集数据等特殊类型数据的合规要求。例如 对公共场所获取的数据而言,采集 数据 应 当为维护公共安全所必需,并设置显著的提示标识 ,或取得个人单独的授权同意 等等 。 参与方也 需要特别注意特殊类型敏感数据的处理收集,如:民族或者种族背景、政治立场、宗教哲学信仰、基因数据、旨在识别特定自然人 的生物识别数据、与自然人的身体健康状态相关的数据 等。 (五 ) 关注 技 术方案的 安全性 参与方需要对隐私计算技术方案的建模预处理及运算过程进行充分的安全性评估 。 以联邦学习 建模的场景 为例, 其主要流程包括样 21 本匹配、特征工程、模型算法等。 在样本匹配中存在大量的数据交换,应当保证 各方均不能通过过程数据反推出除共有样本外的其他原始数据 ; 在特征工程中, 在 对 参与方 联合建模所使用的特征变量进行处理时,应使用合适的加密方式处理各方的特征信息 ; 在联合建模阶段,参与方应确保各方提供的数据只在本地进行模型参数计算,所有用于交互的数据均只能是各自运算结果的中间参数,如梯度值、损失函数值等。 另外,也应采用适当的措施保护中间参数在传输与融合计 算中的安全,尽可能降低数据泄露和反推出原始数据的风险 。 此外, 参与方需要对隐私计算平台中涉及敏感数据处理的关键代码进行审计 。隐私计算一般基于特定算法使用数据,虽然可以通过密码学技术等方式对数据进行保护,但由于应用算法、模型的日趋复杂,仍 可能存在 一定的安全隐患,例如多次重复使用相同输入数据生成特定关系的结果可能 会 导致原始数据泄漏。因此,相关参与方需要对算法(即数据的使用方式和目的)进行安全性和合理性评估,确认数据泄露的风险可以被控制在可接受的范围内。 (六 ) 明确 计算模型的归属 计算模型一般是指由特定训练数据使用特定的算法 和 参数训练出来的模型算法 , 其 呈现形式可以是模型的源代码 、 模型结构 或 参数。由于隐私计算尚处于前期探索阶段,各方关注的重点 多放在模型的效果层面,对于计算模型的归属和使用权限分配方面的研究 仍较为薄弱。参与方如未能在合作开始前达成一致 意见 ,则很可能在计算模型应用 22 规模扩大后因后续争议影响计算模型的使用。 在模型的知识产权方面 ,参与方需要约定开发后代码的归属,例如 可以 赋予结果使用方相应的知识产权, 在 纵向联邦学习中 约定 各参与方对部分模型享有知识产权 等等 。 在模型的使用权限方面 ,参与方需要约定是否可以基于计算模型的源代码进行定制化开发等细节。拥有模型知识产权的主体也可选择不同形式的使用权许可,例如专有许可使用(即仅允许 模型 购买方使用该模型);排他使用许可(即仅允许本方以及 模型 购买方使用该模型);普通使用许可(允许本方以及模型 购买方使用该模型,并且可以继续许可其他方使用该模型)等等。 (七 ) 关注 产出结果 的 合规 性 在输出最终计算结果时,各参与方 需要 尽可能控制 输出结果 带来的 泄露 隐私 的 风险。 例如在 医疗 机构 就某种疾病进行联合建模 的场景,如果在输出预测结果的同时泄露了 患者 的 ID,则有可能泄露 患者 本身 患有某种疾病 的 敏感 信息 。因此 医疗 机构可能需要通过隐私集合求交集或隐私信息检索等方式在预测 疾病风险 的同时不泄露 患者 的 ID,从而实现输出结果阶段的隐私保护。 在结果的使用阶段, 参与方应对输出模型和结果数据的使用进行明确的约定 ,要求结果使用方依照参与方约定 的 使用目的、范围和时限等要求使用数据和模型。尽管在实践中参与方很难对结果使用方的数据使用行为进行监督和约束,我们仍建议参与方通过 合同 切分义务和责任、明确违约责任 、采用限制 IP 技术 等方式 控制结果的使用, 23 进而 减轻结果使用方可能 为其他参与方 带来的合规隐患。 另外,在实践中关于输入数据的风险是否会传导到输出结果的问题也有诸多争议。 例如当 部分结果 接收 方本身没有参与联合建模,最终输出的统计数据等结果无法识别到原始信息, 基本 满足匿名化的要求 , 但输入的原始数据本身存在权利瑕疵 。在这种情况下,原始数据的风险 是否会影响结果方使 用输出结果 的权利 ,仍然有待立法和实践的进一步探讨。 (八 ) 关注自动化决策的风险 当隐私计算的 模型的使用目的是 信息推送、商业营销 时, 参与方也需要关注自动化决策的合规风险。 例如 当 模型可 被用于精准推荐 时 ,隐私计算的 参与方 须 根据具体场景的要求考虑 决策的透明度 披露 和结果的公平公正,不得 导致会对个人 实行不合理的差别待遇 。 此外,当结果使用方需要 通过自动化决策向个人进行信息推送、商业营销 时 , 也 应 为用户 提供不针对个人特征的选项或向个人提供便捷的拒绝方式 。
展开阅读全文
相关资源
相关搜索
资源标签

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642