查看原文
其他

什么是隐私计算?如何应用与规制?




        

隐私计算是在保障数据安全前提下,实现数据价值合规有序释放的技术体系。主要包括,基于协议规则的安全多方计算、基于现代密码学的联邦学习、基于硬件闭环的可信执行环境、基于信息论和概率论的差分隐私以及构建于格密码算法之上的同态加密等技术。

党的二十大报告重申了建设“网络强国、数字中国”的发展愿景,隐私计算对于训练大语言模型、抹平数据飞轮效应意义重大。尽管如此,隐私计算同样可能带来决策失误、权益侵害、隐私泄露等风险。当务之急,是结合我国国情,厘清隐私计算的行业价值及潜在风险,以便有针对性地从技术和法律两方面补齐风控短板。



01隐私计算的应用场景

隐私计算的理念根源于“通过设计保护隐私”,即在设计之初就将数据安全需求“嵌于其中”,成为技术运作的缺省规则。我国相关部门也提出了“伦理先行、敏捷治理”的理念,体现出积极预防而非被动救济、正和共赢而非零和博弈的全周期数字正义价值观。

数据不同于石油、天然气等不可再生资源,不会因过度使用而枯竭。隐私计算旨在解决数据规范共享的痛点,以满足企业和部门间数据效能释放的刚需。

目前,我国已经形成较为成熟的隐私计算应用场景。例如,在小微信贷业务中,金融机构如果要对企业进行准确的资信审查,必须对企业的销售、物流、财务、仓储、税务等数据进行交叉验证,但金融机构通常只能申请贷款企业提供的基本数据以及过往的业务数据;多方安全计算可在数据不出本地的情况下解决机构间信息不对称、判别不精确、风险难以识别等问题,拓展中小微企业的融资渠道。

再者,鉴于医疗数据的敏感性,智慧医疗服务商很难同时掌握来自医疗报告、基因序列、病理特征、生理状况等不同源头的样本足够、特征完整、能够全面反映患者症状的数据;联邦学习为此类问题提供了解决方案,无需交换各个机构的私有数据,便能协同各方参与诊疗模型的训练。

对于那些具有安全保密级别的内部信息不能明文共享的困境,相关部门通过可信执行环境的构建,创造无风险聚合内部信息的封闭环境,实现对特殊安全级别信息的处理。

02隐私计算的主要风险

隐私计算虽在破除行业壁垒、化解信息孤岛方面具有得天独厚的优势,但当前各项技术面临通信开销大、性能效率低、传输复杂度高、与主流技术体系磨合不佳等瓶颈,且存在三方面的系统性风险。

对公共安全等方面构成威胁。隐私计算是嵌入数据处理环节的基础性技术,应用不当极有可能造成传统算法歧视的泛化和异化,导致自动化决策失误。因此,对公共部门、医疗领域等这些与公民基本权利、公共安全密切相关场景中的隐私计算应用,必须进行严格监管和治理。

数据处理活动的责任主体虚化由于有为数众多的参与方横亘在数据处理者和数据主体之间,数据处理的层层委托经常演化为“层层甩锅”,连带责任和分配责任等制度安排均无法实现实质正义。因此,以数据主体为保护对象的法律关系,须在“数据处理复合化”的语境下进行重构。

无法完全保证数据安全。隐私计算的过程具有“半透明性”,意味着攻击者可以伪装成诚实参与方窃取运算结果、破解可信环境或植入恶意代码。研究表明,即便有所防范,训练集中只要包含3%的中毒数据,模型误差将从12%上升至23%。通过反汇编语言,恶意参与方可以将病毒等悄无声息地传输至目标设备中,攻击成功的概率在九成以上。因此,适用于隐私计算的技术安全流程,有必要通过技术手段予以改良。

03如何应对隐私计算的风险当前,各国围绕隐私计算的立法多停留在“政策促进”、“应用指引”、“技术标准”和“部门立法”层面,尚未形成可因应发展性风险的动态规范。因此,应超越传统人工智能法律规制的路径依赖,采取新方法、新手段回应隐私计算带来的新问题、新挑战。隐私计算的良法善治有赖于个人信息保护和技术效能释放的精妙平衡,具体的应对策略可从技术和法律层面分别展开。技术层面,可通过三种方式构建“根植式”的中心化管理机制。提升安全事件的溯源能力。其一是统一身份认证管理,可结合云平台指纹、人脸、声纹、扫码等多因素推行细粒度即将业务模行中的对象加以细分从而实现访问控制,建立支持服务器集群认定和客户端与服务器之间的双通道认定机制,利用服务器证书等技术手段严控应用层、传输层的数据传输,在应用边界内构建零信任数据控制体系。其二是统一资产管理,所有隐私计算的机构参与方应通过协商建立资金池,共同应对技术升级、安全维护以及侵权赔偿等。对机构参与方的资产投入实施台账管理,建立方便机构参与方资产“入网—变更—监控—退网”流程的智能平台,实现资产数据的盘点展示、查缺补漏、动态更新和责任链化。其三是统一日志审计管理,宜在隐私计算数据加密传输的基础上,支持分布式实时计算组件对接过程性数据,全方位感知数据安全态势。一方面,监控异常浏览轨迹、账号违规共享、数据恶意投毒、高危指令录入、非正常模型运算等行为;另一方面,将过程数据储存至弹性搜索引擎的服务器中,配合随机森林算法对打标数据进行安全感知分析和威胁预判处理。法律层面,可通过三方面措施健全平衡隐私计算各参与方利益、促进技术增益数据价值、保护数据主体综合权益的法律框架。其一是完善风险控制的外部审查制度。隐私计算的执行方案,必须经过独立的第三方机构审查,参与审查的专家委员会由具备相关技术背景、同各参与方无利益往来的专家组成。“专家会诊”不宜简单地将安全凌驾于精准度、效率、公平和收益等价值之上,而需要通过最低限度的尽职调查,平衡纵横交错的多元诉求,在保障基本安全的前提下尽可能促进数据价值的变现。其二是引入以变应变的知情同意框架。知情同意框架是数据处理活动的“第一闸口”,数据主体因知情而同意或不同意,共同勾勒出数据处理活动的能动性边界。隐私计算的动态特征,决定了知情同意框架也要相应改进,数据主体只有做到与时俱进的“知晓”,才能作出真正符合其意思表示的“同意”,否则无异于“刻舟求剑”。数据处理者必须就关键事项的改变同数据主体依次达成合意。其三是细化数据主体的法律权利保障。无权利则无救济,“个人信息自决”观念下的知情权、获解释权、拒绝权、更正权、删除权、被遗忘权等,在隐私计算中仍然有适用的空间,除此之外,还应加速人工干预权、脱离自动化决策权、免受算法支配权等新兴权利的立法工作,确保数据主体面对隐私计算要约时,有为自身权益“讨价还价”的筹码。

来源:文章刊载于《学习时报》2023年6月2日第3版


END热门文章:




隐私计算头条周刊(05.29-06.04)


讲师招募|欢迎加入“隐私计算共学计划”


开放银行数据保护与合规的10个典型实践案例


冯登国院士最新演讲全文:数据安全新方向—数据使用安全


加入我们丨OpenMPC社区招募实习生

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存