行业资讯

  • 首页
  • 新闻中心
  • 行业资讯

实现隐私计算的相关技术


2021年01月12日

一、隐私计算(Privacy Computing)

隐私计算,广义上是指面向隐私保护的计算系统与技术,涵盖数据的产生、存储、计算、应用、销毁等信息流程全过程,想要达成的效果是使数据在各个环节中 “可用不可见”。目前最先落地于金融、医疗等行业。


二、实现隐私计算的相关技术

从技术角度出发,和隐私计算相关联的概念很多——多方安全计算(MPC)、可信硬件(TEE)、联邦学习、差分隐私、区块链等。目前业内采用的主流技术包括三类:多方安全计算(MPC)、联邦学习和可信执行环境(TEE)。

当前实现隐私计算的技术主要可分为可信计算和密码学两大方向。

  • 可信硬件
    • 可信硬件指可信执行环境,核心思想是构建一个安全的硬件区域,各方数据统一汇聚到该区域内进行计算。
  • 密码学
    密码学指用算法实现对计算过程中的数据保护,以多方安全计算联邦学习等为代表。

1. 多方安全计算(Secure Multi-Party Computation MPC)

多方安全计算(Secure Multi-Party Computation,简称MPC)是指在无可信第三方情况下,通过多方共同参与,安全地完成某种协同计算。即在一个分布式环境中,多个参与者共同完成对某个函数的计算,该函数的输入信息分别由这些参与者提供,且每个参与者的输入信息是保密的,在计算结束后,各参与者获得正确的计算结果,但无法获知其他参与者的输入信息。这种方式主要基于密码学的一些隐私技术,相关概念还包括同态加密(Homomorpgic Encryption)、不经意传输(Oblivious Transfer)、混淆电路(Garbled Circuit)和秘密共享(Secret Sharing)等。

核心在于计算参与方在数据加密状态下进行计算。彼此不知对方数据,却能得到正确的计算结果。
在这里插入图片描述

图1:安全多方计算(Secure Multi-Party Computation)

在这里插入图片描述

图2:安全多方计算的相关概念


2. 联邦学习(Federated machine learning/Federated Learning)

联邦机器学习(Federated machine learning/Federated Learning),又名联邦学习,联合学习、联盟学习。联邦机器学习是一个机器学习框架,能帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据使用和机器学习建模。有观点认为,基于多方数据进行联合建模,各自原始数据不对外输出,由中心方进行协调的建模,都可称为联邦学习。

联邦学习的系统架构大致分为横向联邦学习、纵向联邦学习、迁移学习三类,分别对应不同数据集的差异情况。

核心:“数据不出门,算法满地跑”
在这里插入图片描述

图3:联邦学习(Federated machine learning/Federated Learning)


3. 可信执行环境(Trusted Execution Environment TEE)

以上两种方式主要是在软件和算法层面实现隐私计算。可信执行环境(TEE)则基于硬件实现。

这种方式的思路是在CPU 上构建一块安全区域,这块区域的作用是给数据和代码的执行提供一个更安全的空间,在这个安全区域内进行相关的计算。比较有代表性的是Intel-SGX、ARM-TrustZone等。


三种技术的对比

这三种方式在安全性、工程能力和落地场景等方面存在不同的特点,我们可以通过下文这张对比图,了解不同技术思路的优劣势。
在这里插入图片描述

图4:三大技术对比图


客服