近年来,隐私计算技术不断发展,相关技术产品不断丰富。某种程度上说,隐私计算成为平衡个人信息的商业流通价值与个人权益两种价值可行的技术解决方案之一。'...
近年来,隐私计算技术不断发展,相关技术产品不断丰富。某种程度上说,隐私计算成为平衡个人信息的商业流通价值与个人权益两种价值可行的技术解决方案之一。
但我国法律尚未对隐私计算等技术的合法性和合规性做出明确规定,致使隐私计算企业在技术产品设计、业务流程设计方面仍然欠缺规范指引。例如,现有法律规定“未经被收集者同意,网络运营者不得向他人提供个人信息”,而隐私计算的目标就是基于多方数据的计算,原则上破坏了这一要求,但同时又可能适用于“经过处理无法识别特定个人且不能复原”的例外条款。面对这些困惑,笔者将业界与法律界人士对于隐私计算的法律合规部分思考总结如下。
(1)“隐私计算”的“隐私”不是法律法规中的隐私。
“隐私计算”来源于英文翻译Privacy-Preserving Computing 或 Privacy Enhancing Computation,其“Privacy”一词只是对“不愿公开”一词的简单描述,并不同于法律意义上的“隐私”或“个人隐私”。因此,讨论隐私计算合规,首先应确认其涉及到的数据是法律规制要求中的数据,这是探讨的前提。
(2)法律法规不会对技术做概括的判断。
无论是隐私计算还是人工智能、区块链、虚拟现实等技术,法律法规从不会从整体上对技术进行合法性判断。法律法规只看技术如何应用,是否侵害到了相关法益。因此,指望法律明确指出“隐私计算合规”或者“隐私计算非法”是不现实的。
(3)隐私计算在实践中趋近于数据的“最小化原则”,一定程度上受到法律法规鼓励。
多方安全计算、联邦学习等技术,相对与传统的数据聚合和机器模式明显增强了对于数据的保护、降低了数据泄露的风险。因此,包括欧盟在内的部分地区将其视为“数据最小化”的一种实现方式。虽然“可用不可见”更多是一种宣传术语,但法律法规对于技术主要目的的肯定是毋庸置疑的。
(4)使用隐私计算进行数据聚合无法规避法律法规风险
由于联邦学习中的梯度仍然可以揭示衍生的一些个人信息,特别是当模型很复杂、有很多细粒度变量的情况下,个人信息仍有被重新识别的风险。因此根据欧盟的立法,即使参与联邦学习的主体没有访问对方的数据,也可能被认为是共同控制者。
网络信息
(5)不能指望法律法规对技术细节作背书。
对于经过隐私计算处理后的数据是否属于我国法律意义上的“经过处理无法识别特定个人且不能复原”,法律不会给出答案。法律法规也不会对这种“无法复原/无法破解”是否真的是“无法复原/无法破解”作出判断。一般来说,法律法规总是假定你确实“无法复原/无法破解”,直到出现了被破解的后果。
(6) 是否要付法律责任,关键在于技术的使用结果。
决定技术使用的是否合法合规,不在于用了多么先进的算法、多么强大的工具,而在于实际产生的后果。技术只是在某种程度上降低了这种后果产生的风险。归根到底,如果商业模式不合规、数据来源不合法,技术是无法拯救的。
(7)专业的评估评测对法律举证有正面影响。
虽然技术进步永无止境,但基于标准的专业的技术评估评测至少可以证明在当时的某种条件和某种环境下,技术的实践是受到了认可的。因此,一旦进入法律法规实施环节,评估评测的结果是具有正面意义的。
(8)技术动态更新,合规性要求也与时俱进。
技术本身在不断发展,攻击手段、破解技术也在不断发展。有些当时未知的风险会逐渐变为已知。因此,即便在当时技术的合规性受到了某些标准的认可,这种认可的有效程度也是短暂的,需要不断更新完善。
总之,绝对的技术合规将永远难以到达,但技术的每次升级,或者安全性的每次提升,都离这个目标更近了一点。