个人信息保护法实施时间,《个人信息保护法》正式施行

张强律师 法律头条 2022-12-06 14:01:48

导读:个人信息保护法实现时间,"个人信息保护法"正式本报记者刘北京报道。垃圾短信,骚扰电话,源源不断的垃圾短信,冒名办卡透支,案件意外从天而降,账户钱不翼而飞...这些都是信息泄露可

个人信息保护法实现时间,"个人信息保护法"正式

本报记者刘北京报道。

垃圾短信,骚扰电话,源源不断的垃圾短信,冒名办卡透支,案件意外从天而降,账户钱不翼而飞...这些都是信息泄露可能造成的安全隐患。

随着11月个人信息保护法(以下简称《人身保险法》)的实施,这些问题都将迎刃而解。同时,金融机构的数据共享将进一步规范。过去一年,隐私计算技术在金融机构中迅速普及,后者通过对脱敏数据的深度挖掘,不断完善自身的风控体系和精准营销模式。

“金融机构在业务经营中积累了大量高质量、高价值的数据,但这类数据只与金融业务相关,而一些金融业务如授信、营销等通常需要更全面的客户画像。因此,金融机构有必要与同业和其他行业组织进行联合计算。”即刻消费金融有限公司(以下简称“即刻消费”)副总经理兼首席信息官姜宁对《第一财经日报》表示,隐私计算技术的应用不仅挖掘了数据的潜在价值,也为数据风险控制提供了有力支撑。

据北京中关村金科科技有限公司(以下简称“中关村金科”)隐私计算专家介绍,国内大型国有银行、股份制商业银行、大数据交易所、地方大数据局都非常重视隐私计算技术的应用。2019年以来,相关招标逐年增加,相关基础设施建设正在逐步完善。

数据流通需求助推隐私计算发展

所谓隐私计算,主要由多方安全计算、可信执行环境、联邦学习等技术组成。在相关个人数据不从银行等金融机构流出的情况下,双方提供大量脱敏结构化数据,借助自身大数据分析能力进一步完善用户画像,从而帮助对方提升信用风险控制和精准营销效率。

当前,我国数字经济发展迅速,数据流通成为不可或缺的关键环节。姜宁表示,在传统的数据流通方式中,通常是明文数据流通,随着数据的不断传播,数据安全的风险也在不断增加。任何组织在数据流通中的数据泄露都会威胁到数据的安全。因此,在对数据安全性要求较高的金融场景中,数据秘密流通无疑是更好的选择,可以更好地控制数据的使用和流通范围,保证数据安全。

对此,中国信通院云计算与大数据研究所隐私计算研究员贾旋也指出,在涉及多方敏感数据的联合建模过程中,可以采用隐私计算技术,实现“数据可用但不可见”的多方数据安全合作和价值挖掘。以多方安全计算、联邦学习和可信执行环境为代表的隐私计算,对原始数据进行加密、去身份或假名处理,计算过程和结果只传输切片、密文等非原始数据,从而实现原始数据不离域。由于只传递数据的价值,隐私计算实现了数据持有权和使用权的分离,解决了原始数据的无限复制、盗用和滥用问题,保证了原始数据持有权不变、不受损,保护了数据主体的合法权益。同时,结合具体应用场景,隐私计算技术处理的流通数据在一定条件下有望匿名,这也有助于尽量减少对原始数据的使用。

姜宁指出,实践中往往会结合不同的技术,加强不同应用场景下的数据安全和隐私保护。其中,多方安全计算可以实现多个参与者在没有可信第三方的情况下共同进行一次计算。每一方只能获得自己的计算结果,不能通过计算过程推断出其他任何一方输入的数据。在金融场景下,可以应用于联合统计、联合查询、联合建模、联合预测等。联邦学习是在不检出各方原始机器学习数据的情况下,通过对数据的加密、循环和处理,实现多方机器学习模型的训练。联邦是人工智能发展过程中为保护用户隐私和数据安全而提出的,因此广泛应用于智能金融服务场景。可信执行环境是通过在中央处理器中构建一个安全区域来保证程序和数据在安全区域的机密性和完整性。TEE是一个安全且隔离的执行环境,它为可信应用程序提供了比常见操作系统更高的安全级别。

姜宁指出,由于多方安全计算的技术复杂,开发难度大,这些技术路线多为技术型企业,构建基于多方安全计算的数据流通基础设施。对于联邦学习,由于人工智能行业的蓬勃发展,相关数据安全需求的不断增加,以及联邦学习相对较低的开发难度,许多企业都投入了基于联邦学习的隐私计算产品的研发。对于可信执行环境,由于对硬件的依赖和国外芯片的限制,国内相关产品相对较少,但也有企业投资了国产硬件的R&D。

隐私如何帮助金融机构了解客户的消费行为、消费特征和风险控制重点?

在金科中关村隐私计算专家看来,关键在于模型。这里的模型主要是指机器学习模型或者深度学习模型。C端客户在申请金融机构的产品或服务时,应签署用户授权协议,并提供必要的个人信息。金融机构在获得这些信息后,会根据不同的场景调用营销模型或风险控制模型,并根据模型的输出做出相关的经营决策。

“这里使用的模型并不是简单的利用金融机构自身的数据就可以得到的,即使能够利用自身的数据进行训练,其精度也很难满足经营决策的需要。这个模型往往是利用自己的数据和联合建模伙伴的数据来训练的。”该专家指出,隐私计算技术可以帮助金融机构在不知道客户敏感信息的情况下,通过联合建模获得可用的模型,进而支持业务的顺利开展。

不过,该专家也表示,使用隐私计算技术训练模型会在一定程度上损害模型的性能,但不会对风控的准确性产生实质性影响。根据中国清算与支付协会制定的多方安全计算的金融应用评测标准,基于私有计算训练的模型与明文本地训练的模型之间的精度差异不得超过5%,因此模型的精度是有保证的。同时,利用模型进行风险控制是一个复杂的过程,模型精度的差异可以通过其他措施来对冲。

互联互通依然存在挑战。

目前国内隐私计算正处于成长期,在政策、技术、产业等方面都有很多进步。

隐私计算技术的普及很大程度上解决了金融机构间数据交换的合规性问题,但隐私计算技术在安全性、性能、互联互通等方面仍存在诸多挑战。

中关村金科的隐私计算专家表示,绝对的安全是不存在的,但在合理的通信带宽和计算能力投入的前提下,B端企业基于多方安全计算协议和密码算法的隐私计算联合建模的场景是安全的。目前国内由ICT研究院牵头的隐私计算联盟,以及金融行业的国家金融科技测评中心(BCTC)、中国金融认证中心(CFCA)等。可以进行安全评估,判断隐私计算产品的安全性。目前,中关村金科自主研发的隐私计算平台正在进行(CFCA)多方安全计算金融应用产品评测,通过安全性、标准化、合规性等方面的严格测试,满足金融场景下的数据共享和数据协作需求。在保护数据安全和隐私的前提下,更高效地赋能金融场景,促进数据价值的释放。

在性能方面,上述专家表示,由于多方安全计算协议的引入和新密码算法的使用,产生了大量通信、存储和加解密的额外计算需求,性能仍然是限制隐私计算广泛应用的重要因素。优化加解密算法的效率,降低通信开销仍然是隐私计算技术研究的热点。

"互连可能是私有计算广泛应用的最大瓶颈."中关村金科隐私计算专家指出,就联邦学习而言,有许多产品是通过中国的技术框架实现的。虽然底层加密算法原则上是一致的,但这些产品本质上是无法互联的。已经有股份制银行和金融科技企业开展互联合作;行业内相关标准化工作正在推进,相信互联互通问题会逐步解决。

具体到联邦学习领域,索信达控股(3680)AI创新中心邵云数据科学家。HK)表示,联邦学习的应用面临几个挑战:一是如何设计激励机制。联邦制是由多个机构完成的,只有满足各方利益才是可行的。第二,隐私保护问题。也就是说,如果传输模型的中间数据泄露,原始数据仍然有被推导的风险。第三,联邦学习的参与者中,可能存在不诚实参与者的恶意攻击。

此外,邵云指出,联邦学习还存在一些其他问题,比如数据传输效率。模型训练会涉及很多操作,所以各方联合建模会涉及很多数据交互。比如梯度下降时,梯度迭代的每一步都会涉及到通信开销。所以沟通效率也是联邦学习在落地过程中会遇到的挑战。此外,还有机构间样本分布不均等问题,等等。

“目前索信达控股正在研究多方安全计算。我们将多方安全计算问题与联邦学习场景相结合,这也是联邦学习未来非常有前景的研究方向。”邵云说。

总结:以上内容是对个人信息保护法实现时间和“个人信息保护法”实现的详细介绍。文章部分转载自网络,希望你能知道个人信息保护法。

版权声明

本站搜集来源于网络,如侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意。