|
引用本文
张泽辉, 李庆丹, 富瑶, 何宁昕, 高铁杠. 面向非独立同分布数据的自适应联邦深度学习算法. 自动化学报, 2023, 49(12): 2493−2506 doi: 10.16383/j.aas.c201018
Zhang Ze-Hui, Li Qing-Dan, Fu Yao, He Ning-Xin, Gao Tie-Gang. Adaptive federated deep learning with non-IID data. Acta Automatica Sinica, 2023, 49(12): 2493−2506 doi: 10.16383/j.aas.c201018
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c201018
关键词
联邦学习,深度学习,隐私保护,同态加密,混沌系统
摘要
近些年, 联邦学习(Federated learning, FL)由于能够打破数据壁垒, 实现孤岛数据价值变现, 受到了工业界和学术界的广泛关注. 然而, 在实际工程应用中, 联邦学习存在着数据隐私泄露和模型性能损失的问题. 为此, 首先对这两个问题进行数学描述与分析. 然后, 提出一种自适应模型聚合方案, 该方案能够设定各参与者的Mini-batch值和自适应调整全局模型聚合间隔, 旨在保证模型精度的同时, 提高联邦学习训练效率. 并且, 混沌系统被首次引入联邦学习领域中, 用于构建一种基于混沌系统和同态加密的混合隐私保护方案, 从而进一步提升系统的隐私保护水平. 理论分析与实验结果表明, 提出的联邦学习算法能够保证参与者的数据隐私安全. 并且, 在非独立同分布数据的场景下, 该算法能够在保证模型精度的前提下提高训练效率, 降低系统通信成本, 具备实际工业场景应用的可行性.
文章导读
近些年, 以深度学习算法为代表的人工智能技术在故障诊断、智能控制、情感识别以及生物信息等领域得到了广泛应用[1-4], 而决定深度学习模型性能的关键之一是高质量的训练数据. 目前构建深度学习模型通常采用的是传统集中式学习方法(Centralized learning, CL). 在该方法中, 训练者提前收集各方的数据集, 然后进行数据聚合、预处理等操作, 最后使用处理后的数据进行深度学习模型的训练. 然而, 在某些行业(例如医疗行业), 由于数据隐私等相关的法律规定, 数据拥有者通常不愿意分享数据[5-8].
为打破数据壁垒, 联邦学习(Federated learning, FL)于2015年由Google公司提出[9]. 该方法能够组织不同参与者通过分享其本地模型参数, 协作训练一个全局深度学习模型[10]. 由于联邦学习系统中的参与者不需要分享本地数据, 因此该技术十分适用于某些对数据敏感的工业场景. Zhang等[11]针对真实场景中存在的设备故障数据难收集的问题, 提出了一种基于联邦学习的轴承故障诊断方法. 该方法通过多个参与者对故障诊断模型进行本地训练, 从而构建一个高性能的全局故障诊断模型. Sheller等[12]指出联邦学习在医疗场景的巨大潜力, 并针对病人健康数据的隐私保护需求, 提出了一种基于联邦学习的医学诊断模型. 该模型能够跨多个研究机构进行医学诊断模型的训练, 从而提高诊断模型的性能. Kwon等[13]针对海洋场景中无线传感器通信困难等问题, 首次将联邦学习算法应用到智能海洋网络的构建. 通过以上应用研究可以看出, 联邦学习算法在工程领域应用有着广阔前景.
为了进一步提高联邦学习的性能, Rothchild 等[14]提出使用梯度选择和自适应调整学习速率方法来提升联邦学习训练效率, 降低通信代价. Duan等[15]利用数据增强技术减轻由于数据分布不均造成的联邦学习模型性能的衰减, 从而提高联邦学习模型的性能. Liu等[16]将动量项引入到联邦学习中, 提出一种动量联邦学习算法. 在该算法中, 参与者的本地训练中使用动量梯度下降算法来加速模型收敛. Wang等[17]提出了一种自适应联邦学习算法, 能够在固定的资源预算下自适应调整模型聚合频率. 该算法是以算法经验损失函数为凸模型为前提设计的, 对于传统机器学习算法(例如支持向量机、线性回归和K-Means算法)在联邦学习框架下的应用, 能够比较好地实时估算全局模型聚合频率. 然而, 对于经验损失函数为非凸模型, 例如深度神经网络、卷积神经网络和递归神经网络等, 该算法难以计算出最佳模型聚合频率.
以上研究都未对参与者的数据隐私安全方面进行考虑. 近期的研究[18−19]指出, 参与者上传的模型参数有可能泄露本地的数据隐私信息. 为保护参与者的隐私信息, 多种面向机器学习的数据隐私保护方法相继提出, 主要可以分为两类: 基于差分隐私的方法和基于同态加密的方法.
1) 基于差分隐私的方法: 差分隐私(Differential privacy, DP)是一种常见的数据隐私保护技术[20]. 它采用某种随机机制(例如随机采样或添加噪声)来对用户处理的输入或输出数据进行扰动, 从而使用户处理的结果在一定程度上可以对抗隐私分析. Gong等[7]提出了一种基于相关性的自适应差分隐私算法, 该算法根据不同层神经元之间的相关性对模型的梯度参数施加扰动, 从而保护用户数据的隐私信息. Wang等[21]提出通过对模型的输入特征数据注入噪声, 从而为众包数据提供差分隐私保护, 并估计与目标类别相关的特征重要性, 遵循较少的噪声注入原则以确保模型的有效性. 基于差分隐私的隐私保护算法具有计算复杂度低和易于实现使用等优点, 但是会导致模型的性能下降.
2) 基于同态加密的方法: 同态加密支持对密文进行数学运算, 密文计算的结果经解密后与明文计算结果相同[6, 22], 该特性十分适用于构建支持隐私保护的机器学习算法. 宋蕾等[23]提出通过对训练数据集同态加密, 进而构建支持隐私保护的联合逻辑回归学习算法. Phong等[24]提出对参与者上传的梯度参数进行同态加密, 从而保护联邦学习中参与者的隐私信息. 张泽辉等[19]提出对参与者上传模型权重参数进行同态加密, 从而保护各参与者的隐私信息. 同态加密算法有着很好的安全性, 并且支持构建高精度的深度学习模型, 但在训练过程中增加的额外加密/解密运算会消耗大量的计算资源和训练时间. 因此, 某些研究[19]采用较低的全局模型更新频率, 即较大的模型聚合间隔τ, 以减少加密/解密次数和通信成本, 从而提高联邦学习训练效率. 然而, 在非独立同分布数据场景下, 较低的更新频率会导致联邦学习模型的性能大幅降低, 甚至直接导致模型不收敛. 反之, 采用较高全局模型更新频率[24], 又会极大地增加联邦学习训练的通信成本和计算代价.
在工业场景中, 模型的精度对生产效益等方面有着巨大影响. 因此, 本文选用同态加密方案构建支持隐私保护的联邦学习算法. 针对联邦学习系统中存在的性能优化与隐私保护问题, 本文提出了一种面向非独立同分布数据的自适应联邦深度学习算法. 本文研究工作主要如下:
1)针对联邦学习算法在工业场景中的应用, 通过数学推导分析总结了联邦学习模型出现精度损失的主要原因. 基于此, 本文首次提出面向联邦深度学习的自适应全局模型聚合方案, 该方案能够设定各参与者的Mini-batch值, 并根据参与者训练过程中的信息, 自适应调整全局模型聚合频率, 在保证模型性能的前提下, 提高联邦学习训练效率.
2)借鉴经典图像加密方法, 本文首次将混沌系统引入联邦学习领域中, 并采用CKKS (Cheon-Kim-Kim-Song)同态加密方案构建出一种基于混沌系统和同态加密的混合隐私保护方案. 与基于Paillier同态加密的联邦学习算法相比, 本文所提出的联邦学习算法大大提高了模型的训练速度.
3)理论分析和实验结果表明, 本文提出的方法能够保证参与者的数据隐私安全. 并且, 在非独立同分布数据的场景下, 该方法能够在保证模型精度的前提下提高训练效率, 降低系统通信成本, 具备实际工业场景应用的可行性.
图 1 多层神经网络模型
图 2 不同比例数据泄露的图片
图 3 本文所提出的联邦学习系统结构图
本文首先以神经网络模型为例, 说明梯度参数是如何泄露本地数据的, 并通过数学公式推导分析了联邦学习性能损失的原因. 针对联邦学习性能损失问题, 本文提出一种自适应模型聚合方案, 该方案能够自适应调整参与者Mini-batch值和全局模型更新间隔. 针对联邦学习隐私泄露的问题, 本文首次将图像加密领域中的混沌加密算法引入联邦学习领域中, 用于构建一种基于混沌系统和同态加密的混合隐私保护方案, 从而进一步提高数据隐私保护水平. 理论分析和实验结果表明, 本文提出的联邦学习算法能够保护参与者的隐私信息, 并在非独立同分布数据的场景下提升训练效率, 降低模型的性能损失, 具备实际工业场景应用的可行性.
本文所提出的联邦学习算法, 没有对低质量数据的参与者进行考虑. 然而, 在真实工业场景中, 可能存在拥有低质量数据的参与者, 进而导致整个联邦学习模型性能下降. 因此, 下一步拟打算在保护参与者隐私前提下, 设计一种低质量数据参与者的识别算法, 并使用更加复杂的数据集对算法进行测试与优化, 从而进一步推动联邦学习在工业领域中的应用.
作者简介
张泽辉
南开大学软件学院博士研究生. 2019年获得武汉理工大学硕士学位. 主要研究方向为联邦学习, 故障诊断和智能船舶控制. E-mail: zhangtianxia918@163.com
李庆丹
南开大学软件学院硕士研究生. 主要研究方向为图像加密, 信息安全. E-mail: lqd18812745024@163.com
富瑶
南开大学软件学院硕士研究生. 主要研究方向为云端数据完整性验证, 信息安全. E-mail: fuyao_tj@163.com
何宁昕
南开大学软件学院硕士研究生. 2020年获得河北经贸大学学士学位. 主要研究方向为信息安全, 联邦学习. E-mail: ningxinhe1998@163.com
高铁杠
南开大学软件学院教授. 1991年获华中理工大学应用数学专业硕士学位, 2005年获南开大学博士学位. 主要研究方向为联邦学习, 图像水印, 信息隐藏和云端数据安全. 本文通信作者. E-mail: gaotiegang@nankai.edu.cn
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-22 12:10
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社