bigdataresearch的个人博客分享 http://blog.sciencenet.cn/u/bigdataresearch

博文

[转载]纵向联邦线性模型在线推理过程中成员推断攻击的隐私保护研究

已有 840 次阅读 2022-11-22 09:22 |系统分类:论文交流|文章来源:转载

纵向联邦线性模型在线推理过程中成员推断攻击的隐私保护研究

尹虹舒周旭华周文君

中国电信股份有限公司研究院安全技术研究所,上海 201315

摘要随着大数据的发展以及数据安全相关法规的出台,人们的隐私保护意识逐渐加强,“数据孤岛”现象愈发严重。联邦学习技术作为解决该问题的有效方法之一,已成为当下备受关注的热点。在纵向联邦学习在线推理过程中,当前的主流方法并未考虑对数据标识的保护。针对此问题,提出一种适用于纵向联邦线性模型在线推理过程中的成员推断攻击的隐私保护方法,通过构造具有假阳率的过滤器来避免对数据标识的精确定位,从而保证数据的安全性;使用同态加密实现在线推理过程的全密态,保护中间计算结果;根据同态加密的密文倍乘性质,使用随机数乘法盲化操作,保证最终推理结果的安全性。该方案进一步提高了纵向联邦学习在线推理过程中用户隐私的安全性,且具有更低的计算开销和通信开销。


关键词 联邦学习 ; 纵向联邦线性模型 ; 在线推理 ; 部分同态加密 ; 数据盲化


论文引用格式:

尹虹舒, 周旭华, 周文君. 纵向联邦线性模型在线推理过程中成员推断攻击的隐私保护研究[J]. 大数据, 2022, 8(5): 45-54.

YIN H S, ZHOU X H, ZHOU W J. Research on privacy preservation of member inference attacks in online inference process for vertical federated learning linear model[J]. Big Data Research, 2022, 8(5): 45-54.

图片

0 引言

随着大数据的迅速发展以及数据安全相关法规的出台,人们对数据安全与隐私保护的意识逐渐加强,企业之间的数据共享变得愈加困难,“数据孤岛”现象愈发严重。联邦学习是目前在保护数据隐私前提下解决“数据孤岛”问题的有效方式。联邦学习能在将各方数据保存在本地的同时进行模型训练,降低了隐私泄露的风险。在实际应用中,联邦学习分为3种,分别是横向联邦学习、纵向联邦学习、联邦迁移学习。其中,纵向联邦学习在数据赋能、数据变现等场景中的应用较为普遍,受到了越来越多的关注,它表现为各方数据集的用户重叠部分较大,用户特征重叠部分较小,例如在金融领域中,银行与电商之间的联合建模能更准确地识别信贷风险。

纵向联邦学习在应用过程中可分为两个阶段:联邦模型训练和联邦在线推理。参与联邦建模的机构(即数据拥有方,后文均称之为参与方)先进行加密样本对齐与加密模型训练,此过程被称为联邦模型训练;在完成模型训练并建立预测模型后,后续的预测由参与方在各自的数据上使用模型参数计算结果,这一预测过程被称为联邦在线推理。

以两个参与方的场景为例,预测发起方(以下简称发起方)开展在线推理时,需要将包含数据标识的请求体发送给另一个参与方(后文均称之为响应方),响应方根据请求体中的数据标识查找己方对应的数据,并使用模型参数计算部分预测结果,然后将该部分预测结果返回给发起方;与此同时,发起方计算己方的部分预测结果,并与响应方的部分预测结果进行合并,从而完成整个在线推理过程。该合并结果即完整的预测结果。

目前联邦模型训练阶段的安全性已被广泛研究,而联邦在线推理阶段的安全性研究相对较少。在上述纵向联邦在线推理过程中,预测请求的请求体内包含的数据标识可能会让响应方直接定位到具体的用户,再结合联合建模的业务特点,响应方很容易推测出业务背后隐含的用户需求,导致用户隐私泄露,如用户是否有贷款需求。

可以发现,纵向联邦在线推理过程中有用户隐私泄露的可能性,针对此问题以及现有研究的不足,本文提出一种面向纵向联邦线性模型在线推理过程中的成员推断攻击的隐私保护方法,对传输过程中的数据标识进行处理,并优化现有方案,进而避免用户隐私泄露。

1 相关工作

在联邦学习技术中,当前的安全性研究主要集中在训练阶段,作为联邦学习的最后一环,在线推理阶段在实际应用场景中的使用频率最高,然而该阶段中的数据安全性问题仍然存在。

1.1 联邦学习用户隐私保护的国内外研究现状

1.1.1 模型训练阶段

目前针对联邦学习的隐私安全问题,诸多研究专注于联邦学习的训练过程。Nasr M等人基于模型训练的参数泄露,利用随机梯度下降的隐私漏洞提出了一种推理攻击算法。罗丹等人提出了一种应用差分隐私技术保护模型训练过程中的参数的方法,通过合理分配隐私预算实现用户隐私保护。对于隐私攻击方式,Barreno M等人提到了规避/探索攻击,此类攻击方式会导致输出一个错误的结果,或者通过收集关于模型特征的信息进行攻击。Bouacida N等人讨论了联邦学习工作流程中涉及的多种隐私泄露情况,包括通信状态中模型被恶意替换、梯度泄露、通过模型参数或训练数据来破坏训练过程、篡改聚合模型更新、聚合算法配置错误等,因此依旧需要相关安全策略来降低隐私泄露的风险。

1.1.2 在线推理阶段

Luo X J等人研究了纵向联邦学习在线推理阶段的隐私泄露问题,提出了基于模型预测的特征推理的攻击方案。针对联邦学习在线推理阶段,Lyu L J等人提到推理阶段的攻击可以分为白盒攻击(可以完全访问联邦学习模型)和黑盒攻击(只能够查询联邦学习模型),其中模型的传输步骤使得任何恶意客户端都可以访问该模型,因此需要采取一些措施来预防白盒攻击。

目前联邦学习的安全性问题涉及的大多是数据训练以及推理过程中的特征推理攻击,而本文研究的问题是在线推理过程中的数据标识泄露问题。这些攻击很大程度上依赖于训练过程中的训练数据样本或破坏模型更新过程、篡改数据特征、泄露交换的模型梯度。为了解决这些隐私 安全问题,目前安全多方计算、差分隐私和同态加密等方法均在联邦学习中得到了广泛应用。

1.2 纵向联邦在线推理介绍与安全风险

纵向联邦学习是联邦学习中比较常见的一类场景,它适用于几个数据集共享相同的数据样本但特征空间不同的情况。例如同一城市的两家不同的机构,一方为银行,另一方为电商。两方的用户集可能为该地区的大多数居民,因此数据样本重合较多,然而银行与电商的特征空间有很大不同,银行具有用户收支行为和信用评级的特征,电商的特征则为用户的浏览和购买历史。在金融领域中,以数字银行贷款业务为例,一家银行的目标是建立一个机器学习模型,通过联合电商公司的数据来评估是否可以为某些用户提供贷款。只有银行拥有训练数据集和测试数据集中的标签信息,即是否应批准贷款,于是银行与电商两方联合建模共同完成了针对金融风控的模型训练。为了训练纵向联邦学习模型,各参与方以安全的方式迭代交换某些中间结果,直到获得完成联邦训练的模型,最后将训练好的模型发布给各方。获得训练好的模型后,各方再利用该模型协同进行“预测数据集”中新样本的模型预测。

联邦学习的在线建模结束后,各个用户只能得到与自己相关的模型参数,因此纵向联邦学习的在线推理阶段需要所有用户协作完成。两个用户场景下的纵向联邦学习在线推理流程如图1所示。


image.png

图1   纵向联邦学习在线推理流程

①收到业务预测请求:发起方收到业务预测请求。

②发送预测请求体:发起方将包含数据及模型标识等信息的请求体发送给响应方。

③进行本地计算并得到部分预测结果:发起方和响应方分别基于本地部分模型参数进行预测计算,得到部分预测结果。

④发送部分预测结果:响应方将己方的部分预测结果发送给发起方,便于发起方聚合双方结果。

⑤合并预测结果:发起方聚合双方的部分预测结果,得到最终的预测结果。

由②可以发现,数据标识传输会造成信息泄露的风险,形成成员推断攻击,例如电商(响应方)可以通过银行(发起方)发送的数据标识推断出哪些用户存在贷款需求。

针对上述问题以及现有研究的不足,本文提出一种面向纵向联邦线性模型在线推理过程中的成员推断攻击的隐私保护方法,旨在完善纵向联邦线性模型的在线推理过程,保障用户隐私安全。

2 方法设计与实现

在纵向联邦学习的在线推理阶段,预测发起方将数据标识发送给响应方的过程中,在部分场景下,安全的求交方式使得双方知道共有用户的情况,这可能会间接泄露该信息附带的隐私信息,比如共有用户正在寻求贷款。该数据标识的传输使得响应方能够间接获取用户的隐私,造成信息泄露。

针对此问题以及现有研究的不足,本文提出一种基于具有假阳率的过滤器、支持密文倍乘计算的加法同态加密算法和随机数乘法盲化的面向纵向联邦线性模型在线推理过程中的成员推断攻击的隐私保护方法,对传输过程中的数据标识进行处理,并优化现有方案,进而避免用户隐私泄露。

2.1 符号说明

为了方便理解,对本文用到的符号做如下说明,具体见表1。其中,加密使用的是部分同态加密算法,提供加法同态计算,具有密文倍乘性质。


image.png

2.2 总体框架

在纵向联邦学习的在线推理过程中,本文方法的总体流程如图2所示,发起方收到在线推理请求后,使用数据标识id构造出具有假阳率的过滤器Fid(如布隆过滤器(Bloom filter),它是一种用于数据过滤的概率数据结构,可以返回假阳性结果),并将该过滤器提供给响应方;响应方使用该过滤器进行全库筛选,获得数据标识集Iid,满足图片图片,因此响应方需返回针对多条数据的部分预测结果,而不是仅返回原始id对应的单条数据,从而使发起方无法精确定位到原数据标识对应的用户。在后续过程中,发起方聚合双方的预测结果,并对该结果进行盲化处理,进一步保护用户隐私安全。

image.png

图2   总体流程

2.3 详细流程

在纵向联邦学习在线推理阶段,本文方法的详细流程如图3所示。

image.png

图3   详细流程

(1)响应方预先生成同态加密算法的密钥对(PK,SK),并将公钥PK发送给发起方。

(2)当发起方收到业务系统的在线推理请求后,根据预定规则,针对数据标识id生成具有假阳率的过滤器Fid,并发送给响应方。过滤器构造规则根据业务需求的不同而不同,可以选择布隆过滤器、n-前/后缀过滤器等。

(3)响应方和发起方同步进行如下步骤。

响应方根据Fid生成满足过滤器规则的数据标识集Iid,并查找与之对应的特征数据集 图片,针对图片中的每条数据,响应方使用部分模型wH计算得到对应的部分预测结果图片后,使用公钥PK对该结果进行加密,得到密文图片 ,形成部分预测结果集密文图片 ;最后将图片以及Iid发送给发起方。

发起方查找特征数据图片 ,并使用部分模型wG计算对应的部分预测结果图片 ;使用公钥PK对图片进行加密,得到密文图片 。

(4)发起方根据Iid从集合图片中提取出与id对应的响应方的部分预测结果密文图片 ,并进行聚合计算,得到图片

(5)发起方选择随机数图片 ,并将其与图片相乘,基于同态加密的密文倍乘性质,得到盲化密文图片 ,并将盲化密文发送给响应方。

(6)响应方使用私钥SK进行解密,得到结果 图片,并将该结果发送给发起方。

(7)发起方进行去盲化操作,得到最终的预测结果图片 。

上述步骤为纵向联邦学习在线推理阶段隐私保护方法的详细流程,其中使用了具有假阳率的过滤器,使得响应方无法定位到单条数据,只需计算过滤出的数据标识所对应的数据预测结果,降低了计算开销。在同态密文聚合后,加入不同随机数进行乘法盲化,进一步提高了隐私保护的安全性。

3 性能与安全性分析

本节从性能与安全性两个方面分析本文提出的面向纵向联邦线性模型在线推理过程中的成员推断攻击的隐私保护方法。

3.1 性能分析

为了更好地表示性能分析效果,设发起方发送给响应方的请求体中的数据量为n,过滤器的假阳率为P。其中下标1表示原方法,下标2表示本文方法。仅考虑比较耗时的操作,不考虑算术运算。

3.1.1 计算量分析

本节的计算量分析针对基于本地部分模型参数的预测计算、过滤器运算、加解密运算、聚合运算以及盲化与去盲化运算。其中,α表示基于本地部分模型参数的预测计算量,β表示过滤器处理运算的计算量,γ表示加解密运算的计算量,δ表示聚合运算的计算量,图片 分别表示盲化、去盲化运算的计算量。

在纵向联邦线性模型在 线推理原过程中,由第1.2节介绍的流程可知,整个计算过程中的计算量可以表示为:


图片

在本文方法中,根据第2.3节的(3)可知,响应方需要使用过滤器Fid处理原数据标识集,获得的新的数据标识集大小为图片在发起方进行聚合计算后,与原方法相比,本文方法后续增加了盲化与去盲化过程,整个计算过程中的计算量可以表示为:


图片

对比式(1)与式(2)可以发现,与原方法相比,本文方法增加了数据标识处理运算、加解密以及盲化与去盲化的计算量。其中由于过滤器对原数据标识进行了处理,响应方需要处理的数据量增加,因此图片

由上述分析可知,本文方法的计算量增加了,但是可以使用技术手段降低本文方法带来的计算性能损耗,例如可以使用GPU硬件加速、同态加密打包技术等提高计算效率。

3.1.2 通信量分析

针对纵向联邦线性模型在线推理过程中的通信量,本节分析通信轮次以及与传输数据量相关的通信量。本文使用Paillier同态加密算法,密文长度是1 024 bit,原数据标识长度为m bit。

在纵向联邦线性模型在线推理的原方法中,由第1.2节介绍的流程可知,整个过程包含1轮次数据传输通信。由第2.3节的(5)~(7)可知,相比原方法,本文方法增加了1轮次数据传输通信。原方法的通信量可以表示为:


图片

在本文方法中,由于使用了过滤器,响应方需要计算nP条数据的预测结果,将该结果加密后传输给发起方的通信量可以表示为:


图片

由式(3)和式(4)可知,本文方法的通信量增加了。在后续盲化过程中,同态加密后的结果与盲化因子相乘后长度不变,对通信量开销无影响。

与原方法相比,本文方法增加了1轮次数据传输通信。常数次通信开销的增加对系统的影响可忽略不计。由过滤器的使用造成的额外通信开销可以使用控制过滤器的假阳率不能过大的方法寻找平衡点;根据密钥的生命周期较短、使用后即可丢弃的特性,可通过降低密钥长度来降低通信开销;可使用同态加密打包技术,减少传输过程中的数据量,从而降低额外的密文通信开销。

3.2 安全性分析

当参与方数量为两个时,本文方法是安全的。由于在计算机网络安全方面,很难做到万无一失,任何破坏与攻击都有可能产生,因此本节做出如下假设:①本文方法应用于受控环境中,受控环境可通过传统的安全加固措施实现;②所有参与方均为半诚实的,即参与方都会执行预设的方案步骤,但也会尝试推断方案之外的信息;③本文仅考虑两个参与方的情形。

3.2.1 数据标识的安全分析

在纵向联邦线性模型在线推理过程中,当预测发起方发起推理请求后,请求体中需要包含的数据标识为发起方用于匹配样本的标识,其可能为设备号或手机号的哈希值等。响应方收到该数据标识后,可以反向推断出该数据标识对应用户的其他业务功能标签,造成隐私泄露。因此本文方法考虑对该数据标识进行处理,将具有假阳率的过滤器发送给响应方。发起方根据己方设定的规则将该过滤器发送至响应方后,响应方获得被扰动的数据集,该扰动数据集中包含原数据标识,数据范围的扩大使得响应方无法精确定位到原数据标识的对应用户,从而较好地保证发起方的隐私安全。

3.2.2 响应方计算结果的安全分析

在纵向联邦线性模型在线推理过程中,所有计算均在同态加密密文上进行,因此发起方无法获知计算的中间结果明文,其中包括响应方的部分预测结果明文。

3.2.3 最终推理结果的安全分析

发起方使用随机数乘法盲化对聚合结果进行处理,每次选择不同的随机数进行盲化,再将盲化后的预测结果发送给响应方。发起方利用同态加密的密文倍乘性质,实现了对最终推理结果的盲化处理;即使响应方使用私钥对盲化的最终推理结果进行解密,也无法得到去盲化的最终推理结果;只有发起方使用盲化随机数进行去盲化处理后,才能恢复出最终推理结果。由此可以看出,最终推理结果只能由发起方获得,保证了最终推理结果的安全性。

综上分析,在纵向联邦线性模型的在线推理阶段,本文方法的贡献可归纳为如下3点:①通过构造具有假阳率的过滤器来避免响应方对数据标识的精确定位,从而保证数据标识的安全性;②使用同态加密实现在线推理过程的全密态,保护响应方的中间计算结果;③根据同态加密的密文倍乘性质,使用随机数乘法盲化操作,使得最终推理结果只能由发起方获得,保证了最终推理结果的安全性。上述3点保证了纵向联邦线性模型在线推理阶段中参与方交互信息的安全性。

4 结束语

针对纵向联邦线性模型在线推理阶段中的成员推断攻击问题,本文提出了一种面向纵向联邦线性模型在线推理过程中的成员推断攻击的隐私保护方法,确保经过处理后的数据标识的传输不会造成用户隐私泄露,并保证了整个过程交互信息的安全性。在性能方面,与原方法相比,本文方法的计算量与通信量虽有所增加,但可以使用相关技术来降低额外开销;在安全性方面,在本文假设条件下,本文方法能够有效避免用户隐私泄露。

作者简介


尹虹舒(1993-),女,中国电信股份有限公司研究院安全技术研究所中级工程师、安全技术研究员,主要研究方向为数据安全、信息安全等。


周旭华(1983-),男,博士,中国电信股份有限公司研究院安全技术研究所研究员,主要研究方向为隐私保护计算、密码学、数据安全等。


周文君(1980-),女,中国电信股份有限公司研究院安全技术研究所研究员,主要研究方向为数据安全、系统与应用安全等。

联系我们:

Tel:010-81055490

       010-81055534

       010-81055448

E-mail:bdr@bjxintong.com.cn 

http://www.infocomm-journal.com/bdr

http://www.j-bigdataresearch.com.cn/




https://blog.sciencenet.cn/blog-3472670-1364774.html

上一篇:[转载]基于区块链与函数加密的隐私数据安全共享模型研究
下一篇:[转载]人文大数据及其在数字人文领域中的应用
收藏 IP: 124.202.175.*| 热度|

0

评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-19 02:25

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部