浙江大学学报(工学版), 2024, 58(3): 492-500 doi: 10.3785/j.issn.1008-973X.2024.03.006

计算机技术

基于模型聚合的去中心化拜占庭鲁棒算法

卢朕,, 李建业, 董云泉,

1. 南京信息工程大学 电子与信息工程学院,江苏 南京 210044

Decentralized Byzantine robust algorithm based on model aggregation

LU Zhen,, LI Jianye, DONG Yunquan,

1. School of Electronics and Information Engineering, Nanjing University of Information Science and Technology, Nanjing 210044, China

通讯作者: 董云泉,男, 教授,博士. orcid.org/0000-0001-5282-4245. E-mail: yunquandong@nuist.edu.cn

收稿日期: 2023-03-25  

基金资助: 国家自然科学基金资助项目 (62071237);2023年江苏省研究生科研与实践创新计划资助项目 (SJCX23_0371).

Received: 2023-03-25  

Fund supported: 国家自然科学基金资助项目(62071237);2023年江苏省研究生科研与实践创新计划资助项目(SJCX23_0371).

作者简介 About authors

卢朕(1999—),男,硕士生,从事联邦学习、拜占庭防御研究.orcid.org/0009-0002-0499-1473.E-mail:3249723967@qq.com , E-mail:3249723967@qq.com

摘要

针对联邦学习中拜占庭用户发送任意错误信息,污染全局模型,影响联邦学习安全性和有效性的问题,在含未知数量拜占庭用户的去中心化网络中,提出可验证的去中心化联邦学习方法. 该方法使用SCORE函数,基于验证数据集评估未知属性用户对于全局模型性能的影响,进而排除恶意模型更新并实施安全梯度聚合,实现安全高效的联邦学习. 对SCORE函数得分结果进行阈值划分,降低用户属性分类的错误率并提高诚实用户的容错率. 通过理论证明可验证的去中心化联邦学习算法的收敛性,并且通过大量数值实验验证所提方法对于拜占庭用户数量和攻击类型的鲁棒性. 实验结果表明, 在同等拜占庭攻击条件下,所提方法相较于其他容错算法具有更优的分类准确度.

关键词: 联邦学习 ; 拜占庭攻击 ; 安全聚合 ; 鲁棒算法 ; 去中心化网络

Abstract

A verifiable decentralized federated learning method was proposed in a decentralized network containing an unknown number of Byzantine users, aiming at the problem that in federated learning, Byzantine users send arbitrary error messages that contaminate the global model and affect the security and effectiveness of federated learning. The SCORE function was employed in the proposed method, to assess the impact of unknown attribute users on the global model performance based on a validation dataset. Thereby malicious model updates were excluded and security gradient aggregation for safe and efficient federated learning was implemented. A thresholding mechanism was applied to the score results from the SCORE function to lower the error rate in user attribute classification and increase the fault tolerance for honest users. Theoretical demonstrations confirmed the convergence of the verifiable decentralized federated learning algorithm, and a considerable number of numerical experiments substantiated the method’s robustness concerning both the quantity of Byzantine users and the types of attacks. Results showed that the method achieved optimal classification accuracy compared to other fault-tolerant algorithms in the presence of same Byzantine attack conditions.

Keywords: federated learning ; Byzantine attack ; secure aggregation ; robust algorithm ; decentralized network

PDF (1085KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

卢朕, 李建业, 董云泉. 基于模型聚合的去中心化拜占庭鲁棒算法. 浙江大学学报(工学版)[J], 2024, 58(3): 492-500 doi:10.3785/j.issn.1008-973X.2024.03.006

LU Zhen, LI Jianye, DONG Yunquan. Decentralized Byzantine robust algorithm based on model aggregation. Journal of Zhejiang University(Engineering Science)[J], 2024, 58(3): 492-500 doi:10.3785/j.issn.1008-973X.2024.03.006

近年来,随着5G网络的高速发展以及物联网技术的广泛应用,移动设备的便携化和智能化已经是大势所趋,使用机器学习对移动设备的用户数据进行处理可提高应用程序的智能化,方便人们的日常工作与生活. 然而,传统的机器学习算法需要中央服务器对用户数据进行集中处理,不仅会耗费大量通信资源,而且存在数据泄露风险,使用户隐私安全产生隐患. 联邦学习(federated learning, FL)作为旨在提高通信效率和隐私性的新兴机器学习范式,可以让资源受限和地理分散的设备,利用本地数据合作训练全局模型,同时避免直接交换用户数据. 其中最经典的算法是联邦平均(FedAvg)算法[1],在中央服务器上重复聚合用户的本地训练模型来生成性能优秀的全局模型. 在联邦学习中,用户数据的处理和分析只在设备终端进行,终端用户传递的信息(本地梯度或者本地迭代值)使得窃听方即使获得传递的信息也不可能立刻推断出用户数据,以保护用户隐私.

传统的集中式联邦学习[1-2]虽然提高了数据隐私和通信效率,但存在扩展性差、带宽高、单点故障等问题. 此外,新一代通信网络采用去中心化的无基础设施通信方案和设备到设备的多跳链接技术以提高通信能力[3]. 为了解决上述困境,去中心化的联邦学习[4-7]被提出,然而由于联邦学习数据存储的特殊性以及对通信效率的考虑,许多分布式机器学习方法并不适用于去中心化联邦学习. 同时,联邦学习由于其分布式机器学习的本质,在面对对手攻击时更加脆弱. 拜占庭攻击[8]是联邦学习面临的一种最常见的威胁,亟须设计一种“可证”为安全的拜占庭鲁棒算法. 在传统联邦学习中,通常假设所有参与联邦训练的终端都是“诚实”的,即所有传递给中央服务器的消息都是真实可靠的. 然而,在实际情况中上述假设并不成立,某些终端可能因为网络环境或者被恶意程序操控而发送错误信息.

在集中式联邦学习领域中,有关拜占庭鲁棒的分布式优化研究,已经取得了一系列成果[9]. 拜占庭节点传递给中央服务器的恶意信息通常“远离”真实信息,因此中央服务器可以借助安全聚合机制来聚合真实的信息,减少错误信息对联邦学习的影响. 利用安全聚合机制,诞生了许多拜占庭容错梯度聚合算法[10-14],但这些算法都需要中央服务器对候选节点上传的梯度统计信息进行处理且计算复杂度较高,难以取得实际应用. Tahmasebian等[15]结合真值推理方法和历史统计数据来估计每个客户端的可靠性,提出基于客户端可靠性的鲁棒聚合算法. Xie等[16]提出的完全异步算法借助验证数据集,利用中央服务器对候选梯度进行打分,挑选诚实梯度. 然而,在去中心化联邦学习中,无法使用中央服务器来过滤恶意信息并聚合真实信息. So等[17]提出BREA联邦学习框架,集成随机量化、可验证的异常值检测和安全模型聚合方法,保证框架的拜占庭弹性、隐私和收敛性. Wang等[18] 提出点对点算法P2PK-SMOTE,共享参与FL的不同客户端的合成数据样本,并用于训练异构场景下的异常检测机器学习模型. 受Kang等[19]的基于声誉和区块链的可靠用户选择方案启发,Gholami等[20]提出基于Trust度量的数学架构来衡量代理用户的信任度,提高去中心化联邦学习的安全性. 同样,Zhao等[21]使用区块链代替中央服务器聚合局部模型更新,并利用区块链上的记录不可篡改和可以追溯的优势,保障用户隐私安全. Lu等[22]将本地模型存储在用户子集,实现了物联网场景下的去中心化异步联邦学习,并采用深度强化学习(deep reinforcement learning, DRL)进行节点选择,以提高效率. 然而,法律法规和能源消耗及其他因素限制了区块链技术的实际应用.

针对以上问题,本研究探讨在去中心化联邦学习中如何应对拜占庭用户的问题. 在一个去中心化网络中,拜占庭用户数量未知,攻击方式不明,通过先发送后验证的策略和SCORE函数,来评估未知属性用户的属性. 同时,利用得分函数的结果来进行阈值划分以降低用户属性分类的错误率,提高计算资源的利用率.

1. 系统模型

1.1. 网络模型

考虑在$N$个代理用户(节点)组成的网络上执行联邦学习任务,其中恶意节点数量未知. 在此去中心网络中,无中央服务器且每个用户$i $只能与它们的通信范围内的多个邻居节点逐次相互通信. 所有用户可被编号以记为一个集合$V$$V = \{ 1,\cdots,N\} $. 这个网络可以被建模为有向图$G(V,E)$,其中$V$为网络中节点的集合,$E$为网络中边的集合,$E \subseteq \{ (i,r) \in V \times V|i \ne r\} $. 同时,每个代理用户$ i $拥有自身的数据集${D_i}$$\left| {{D_i}} \right|$表示用户数据集的大小. 训练所用数据样本总数为$D$$\displaystyle\sum\nolimits_{i = 1}^N {{D_i}} = D$,其中第$d$个样本为$({{\boldsymbol{x}}_d},{{\boldsymbol{y}}_d})$${{\boldsymbol{x}}_d} \in {{\bf{R}}^{{D_{{\mathrm{in}}}} \times 1}}$为输入模型的样本数据而${{\boldsymbol{y}}_d} \in {{\bf{R}}^{{D_{{\mathrm{out}}}} \times 1}}$为对应于输入样本的标签. 假设由代理用户$ i $采集的数据样本点的索引集为${p_i}$,基于上述条件,可以利用本地采样数据集${z_i} = \{ ({{\boldsymbol{x}}_d},{{\boldsymbol{y}}_d}),d \in {p_i}\} $训练由${{\boldsymbol{\theta}} _i}$参数化的代理用户$i$的本地模型${M_i}$,如图1所示.

图 1

图 1   去中心化网络模型

Fig.1   Decentralized network model


1.2. 联邦学习模型

在集中式联邦学习中,通过在中央服务器上优化目标函数,寻找解决推断问题的全局模型$\hat w({\boldsymbol{\theta}} ;{\boldsymbol{x}})$,这个模型把输入的样本数据向量${\boldsymbol{x}}$映射到输出$\hat w,\; \hat w \in \{ {w_c}\} _{c = 1}^C$C为输出结果维数. 在去中心化联邦学习中,每个用户不仅拥有各自的数据集,而且还共享一个由${\boldsymbol{\theta}} $参数化的有着固定架构的机器学习全局模型. 这个全局模型的目标是解决如下经验风险最小化问题:

$ \left.\begin{array}{l}{{\mathrm{Minmize}}_{\boldsymbol{\theta}} }{\text{ }}F{\text{(}}{\boldsymbol{\theta}} {\text{) = }}\dfrac{1}{N}\displaystyle\sum\nolimits_{i \in V} {{f_i}} ({\boldsymbol{\theta}} ), \\{f_i}({\boldsymbol{\theta }}) = \dfrac{1}{{\left| {{D_i}} \right|}}\displaystyle\sum\nolimits_{{z_i} \in {D_i}} {l({\boldsymbol{\theta}} ;{z_i})}. \end{array} \right\} $

式中:${f_i}({\boldsymbol{\theta}} )$为用户$ i $的本地经验风险函数,$l({\boldsymbol{\theta}} ;{z_i})$为参数${\boldsymbol{\theta}} $在数据样本${z_i}$上的经验损失.

1.3. 拜占庭攻击模型

对于固定用户网络上的去中心化联邦学习,它的模型聚合路线是既定的. 未经身份认证的恶意节点可能发起拜占庭攻击,它试图在未训练模型的情况下发送本地模型,从而改变模型聚合路线,影响用户对模型聚合路线的共识,最终导致全局模型的实际训练过程偏离正确方向,进而影响全局模型的评估能力[23]. 在一个固定用户网络上的去中心化网络中,在无拜占庭节点时,拟定一条联邦学习模型训练和传输的路线:$1 \to 2 \to 3 \to \cdots \to 20$,如图2所示,每个节点利用私有数据集对接收到的模型参数进行本地训练,并将模型参数发送给下一个节点来协作完成联邦学习任务. 所使用的环状聚合路线,不仅拥有低能耗、延迟低、简单易实现等优点,而且相较于广播形式,此种方式能够降低诚实用户“暴露”给恶意用户的风险.

图 2

图 2   去中心化联邦学习中的模型聚合路线

Fig.2   Model aggregation route in decentralized federated learning


当此去中心化网络中存在拜占庭节点时,如图3所示,假设节点7为恶意节点执行拜占庭攻击,节点2并未对节点7的属性进行验证,恶意节点7接收到节点2发送的模型信息后,发送任意模型信息给节点10,同时谎称发送的聚合模型来源于诚实节点9. 对于节点10,同样缺乏对节点属性的验证手段,无法判断源于节点7的信息是否符合模型聚合的要求. 恶意节点7的拜占庭攻击不仅会改变模型聚合路线,忽略节点3~6的本地训练模型,而且其发送的任意信息,会使全局模型的训练受到恶劣影响. 在更严重的情形下,模型更新的聚合路线陷入一个死循环,如图3中的$1 \to 2 \to 7 \to 1$,模型将只会在这些局部节点训练,使得全局模型发散或者收敛到局部最优处,导致联邦学习失败.

图 3

图 3   拜占庭攻击下的模型聚合路线

Fig.3   Model aggregation route under Byzantine attack


1.4. 拜占庭攻击方式

代理用户使用随机梯度下降(stochastic gradient descent, SGD)和先发送后验证的方法在用户的数据集上优化损失函数以训练本地模型. 在第$t$轮全局训练时,用户$i$将本地模型参数${{\boldsymbol{m}}^{(t,i)}}$传递给它们的下一跳邻居用户$i+1$. 如果用户$i$为诚实用户,其传递的模型参数是真实的,即${{\boldsymbol{m}}^{(t,i)}} = {{\boldsymbol{\theta}} ^{(t,i)}}$. 然而,恶意用户传递的信息并不是在其本地数据集上运行SGD计算所得到的结果而是任意信息$ {{\boldsymbol{g}}^{(t,i)}} $. 根据文献[8]中的定义,其表达式如下:

$ {{\boldsymbol{g}}^{(t,i)}} = \left\{ {\begin{array}{*{20}{l}}\text{任意值},&i\text{是恶意用户};\\{\nabla {f_i}({{\boldsymbol{\theta}} ^{(t,i - 1)}};{z_i})},&i\text{是诚实用户}.\end{array}} \right. $

下一跳的用户在收到上一跳用户发来的信息后,在本地数据集上执行SGD,并重复以上过程寻找最优全局模型参数$ {{\boldsymbol{\theta}} ^ * } = \arg {\min _{\boldsymbol{\theta}} }\;F({\boldsymbol{\theta}} ) $.

考虑符号翻转(sign-flipping attack)攻击、常数向量攻击(same-value attack)、高斯噪声攻击(Gaussian-noise attack)和标签反转攻击(label-flipping attack). 在符号翻转攻击中,拜占庭节点翻转发送给其他节点的信息(本地梯度或者本地迭代值)的正负号,并且增大其幅度,即${{\boldsymbol{g}}^{\left( {t,i} \right)}} = \sigma \times \nabla f_{{i}}\left( {{{\boldsymbol{\theta}} ^{\left( {t,i - 1} \right)}};{z_i}} \right) $,其中$\sigma $为负数. 其目的是使得变量往正梯度方向变化,从而使得目标函数增大,破坏训练过程[24]. 在常数向量攻击中,拜占庭节点发送给其他节点的信息是由常数向量构成的,即${{\boldsymbol{g}}^{(t,i)}} = c \times {\bf{1}}$,其中${\bf{1}} \in {{\bf{R}}^d}$为每一维都为1的向量,$c$为常数. 其目标是发送相同的虚假消息来误导其他节点,让它们做出错误的决策. 在高斯噪声攻击中,拜占庭节点发送给其他节点的信息被高斯噪声“污染”,即${{\boldsymbol{g}}^{(t,i)}} = \nabla {f_i}\left({{\boldsymbol{\theta}} ^{(t,i - 1)}};\right. \left.{z_i}\right) - {\boldsymbol{n}}$,其中${\boldsymbol{n}}$为服从某种高斯分布的随机扰动. 在标签反转攻击中,拜占庭节点并未对发送给其他节点的信息进行修改,而仅对本地训练数据的特定类别的标签进行修改,然后再进行训练. 尽管这种攻击方式只对数据进行投毒,攻击性较弱,但是它通用性较强,并且攻击方式简单,仅须对特定的数据标签进行改变.

2. 方法介绍

由于去中心化的联邦学习没有中央服务器的协助,并且普通的代理用户受限于计算、网络资源而无法处理大量信息,单个代理用户接收的受限信息无法相互比较、聚合. 此时,基于集中式联邦学习的安全聚合算法无法适用于去中心化的情况. 本研究所提出的可验证的去中心化FL算法利用SCORE函数来对未知节点的属性进行评判.

2.1. SCORE函数

在传统机器学习中,为了验证一个用户诚实与否,一个朴素的想法是:在此用户数据集上执行学习任务并通过任务的表现来判定该节点的属性. 然而受制于联邦学习中的隐私设置,用户的个人数据是无法共享的. 由Zeno++算法[16]启发,在由未知数量的拜占庭用户和诚实用户所构成的去中心化网络中进行联邦学习任务时,诚实用户可借助验证数据集和得分函数对下一未知属性用户传递给它的梯度信息进行“打分”,借此来实现分辨和排除拜占庭用户的目的. 对于任意候选梯度${\boldsymbol{g}}$,利用模型参数${\boldsymbol{\theta}} $、学习率$\gamma $和常量$\rho(\rho > 0)$,可以对SCORE函数进行定义:

${ {\mathrm{SCORE}}_{\gamma ,\rho }}({\boldsymbol{g}},{\boldsymbol{\theta}} ) = {f_{{d}}}({\boldsymbol{\theta}} ) - {f_{{d}}}({\boldsymbol{\theta}} - \gamma {\boldsymbol{g}}) - \rho {\left\| {\boldsymbol{g}} \right\|^2}. $

式中:${f_{{d}}}({\boldsymbol{\theta }})$为验证数据集上的经验风险函数,此得分函数可被定义为2部分. ${f_{{d}}}({\boldsymbol{\theta}} ) - {f_{{d}}}({\boldsymbol{\theta}} - \gamma {\boldsymbol{g}})$为预估损失函数的梯度下降值,它在某种程度上反映了待验证节点的属性信息;$ - \rho {\left\| {\boldsymbol{g}} \right\|^2}$为SCORE函数的惩罚项,它约束了模型参数的变化量. 一个更大的损失函数的梯度下降值会导致更大的SCORE得分,也就意味着此节点更有可能是一个诚实节点;相反,当此节点为拜占庭节点时,会阻碍学习任务的进行,相应的SCORE得分较低. 这为SCORE函数分辨拜占庭节点与诚实节点提供了理论支撑.

式 (3)会给部分节点带来较大的计算负担,在实际情况中,可以对式(3)中的${f_{{d}}}({\boldsymbol{\theta}} ) - {f_{{d}}}({\boldsymbol{\theta}} - \gamma {\boldsymbol{g}})$进行一阶泰勒公式展开和近似计算来减少计算开销,改进后的SCORE函数如下:

$ {{\mathrm{SCORE}}_{\gamma ,\rho }}({\boldsymbol{g}},{\boldsymbol{\theta}} ) \approx \gamma \langle \nabla {f_{{d}}}({\boldsymbol{\theta}} ),{\boldsymbol{g}}\rangle - \rho {\left\| {\boldsymbol{g}} \right\|^2}. $

2.2. 可验证的去中心化FL算法

所提出的基于模型聚合的去中心化拜占庭鲁棒算法的总体流程如下. 此方法预置条件是去中心化网络起始必须是2个诚实节点,来初始化全局模型参数.

1)在第$ t $轮全局迭代中,第$ i-2 $和第$i - 1$节点均已是诚实节点且拥有验证数据集,算法目的是分辨第$i$节点是否为诚实节点. 为此,第$i - 1$节点发送第$ i-2 $节点的本地模型参数${{\boldsymbol{\theta}} ^{(t,i - 2)}}$给第$i$节点. 然后,第$i$节点利用本地数据集和${{\boldsymbol{\theta}} ^{(t,i - 2)}}$来执行SGD,并将此过程中得到的梯度信息${\boldsymbol{g}}$回传给第$i - 1$节点.

2)当第$i - 1$节点接收到第$i$节点回传的梯度信息${\boldsymbol{g}}$后,其将利用${\boldsymbol{g}}$在验证数据集上运行SGD,同时结合SCORE函数给出分数. 如果存在常数ε使得SCORE函数的结果满足${{\mathrm{SCORE}}_{\gamma ,\;\rho }}({\boldsymbol{g}},{\boldsymbol{\theta}} ) \geqslant - \gamma \varepsilon $,则认为第$i$节点是诚实节点.

3)如果步骤2)判定第$i$节点是诚实节点,那么第$i - 1$节点将传递自己的本地模型参数${{\boldsymbol{\theta }}^{(t,i - 1)}}$给第$i$节点,第$i$节点利用${{\boldsymbol{\theta}} ^{(t,i - 1)}}$和本地数据集来执行SGD.

重复以上过程,直到最后得到的模型满足精度要求.

对于伪装成诚实节点的拜占庭节点,有如下考虑:如果一个待验证属性的用户做出诚实的回答,需要正确的数据集和准确、及时的模型参数. 受制于去中心化联邦学习的设置,不可能对待验证属性的用户的本地数据集进行审查,同时各个参与联邦学习的用户是不可能同时获得模型参数信息并进行同步训练的,因此只有逐步向待验证属性的用户传递不准确和不及时的模型参数来进行学习. 一个简单的方法就是向待验证属性的用户传递过时的模型参数来阻止拜占庭用户直接回传诚实的梯度进而伪装自身,这样做有2个优点:一是操作方便简单,不需要太过复杂的加密传递方式;二是增加了隐私性,即使拜占庭用户获得诚实的模型参数,其也不能取得与其直接通信的用户的相关隐私信息. 此方法的缺点是需要节点耗费额外的内存和通信资源来储存和传递这些“过时”的模型参数信息. 因此,本研究选择储存和传递上一个诚实用户的模型参数信息来降低存储、通信资源的代价.

在传统的机器学习中,通常用准确率和风险经验函数损失值来衡量模型的性能,但在本实验中仅仅通过这2个指标来评价模型是不充分的,因为在实际场景可能须对用户的诚实或恶意属性进行统计分析从而来激励或惩罚用户,因此需要其他的标准来评价模型. 为此,本研究采用假阳(false positive,FP)和假阴(false negative,FN)分别表示被采用的信息是错误信息、被抛弃的信息是正确信息的概率. 但是,在算法步骤2)中单独使用得分函数不足以分辨出恶意节点,因而有必要对得分函数中的预估损失函数的梯度下降值以及惩罚函数值进行阈值比较,以更加精准地分辨出恶意节点与诚实节点. 修改后的算法流程如下.

输入:初始模型参数${\boldsymbol{\theta}} $、用户数据集$\{ {D_i}\} _{i = 1}^N$、验证数据集、${\lambda _{{\mathrm{t}}1}},{\lambda _{{\mathrm{t}}2}},{\lambda _{{\mathrm{t}}3}},\rho ,\gamma ,\varepsilon $等超参数

输出:目标全局模型参数${{\boldsymbol{\theta}} ^{(T,N)}}$

1.Warm Up:

2. 初始化模型参数${{\boldsymbol{\theta}} ^{(0,0)}}$

3. 诚实用户1结合${D_1}$,计算并发送${{\boldsymbol{\theta}} ^{(0,1)}}$给诚实用户2

4. 诚实用户2接收${{\boldsymbol{\theta}} ^{(0,1)}}$,结合${D_2}$,计算并发送${{\boldsymbol{\theta}} ^{(0,2)}}$给下一用户

5. For t=1 to T do:1)

6. For i=1 to N do:2)

7. 用户$i - 1$发送${{\boldsymbol{\theta}} ^{(t,i - 2)}}$给用户$i$

8. 用户$i$接收${{\boldsymbol{\theta}} ^{(t,i - 2)}}$,结合${D_i}$,计算${{\boldsymbol{g}}_{\mathrm{a}}} \leftarrow \nabla {f_i}({{\boldsymbol{\theta}} ^{(t,i - 2)}}; {z_i})$并回传给用户$i - 1$

9. 用户$i - 1$接收${{\boldsymbol{g}}_{\mathrm{a}}}$,并作归一化处理得到${{\boldsymbol{g}}_{\mathrm{b}}}$

10. 用户$i - 1$在验证数据集上结合SCORE函数进行打分:If ${{\mathrm{Score}}_{\gamma ,\rho }}({{\boldsymbol{g}}_{\mathrm{b}}},{{\boldsymbol{\theta}} ^{(t,i - 1)}}) \geqslant - \gamma \varepsilon $ or ${\lambda _{{\mathrm{t}}1}} \leqslant {f_{{d}}}({{\boldsymbol{\theta}} ^{(t,i - 1)}}) - {f_{{d}}}({{\boldsymbol{\theta}} ^{(t,i - 1)}} - \gamma {{\boldsymbol{g}}_{\mathrm{b}}}) \leqslant {\lambda _{{\mathrm{t}}2}}$and $\rho {\left\| {{{\boldsymbol{g}}_{\mathrm{b}}}} \right\|^2} \leqslant {\lambda _{{\mathrm{t}}3}}$:

11. 用户$i - 1$${{\boldsymbol{\theta}} ^{(t,i - 1)}}$发送给用户$i$

12. 用户$i$接收${{\boldsymbol{\theta}} ^{(t,i - 1)}}$并计算${{\boldsymbol{\theta}} ^{(t,i)}}$

13. Else:用户$i - 1$视用户$i$为拜占庭用户,寻找下一诚实用户

14. End If

15. End For

16. End For

17. 重复以上步骤5)~16)$T$轮次,直到全局模型收敛

注:1)当 $t$=1时,使用诚实用户1、2的本地模型参数${{\boldsymbol{\theta}} ^{(0,1)}}$${{\boldsymbol{\theta}} ^{(0,2)}}$作为算法的起始基准,再执行算法中的剩余步骤; 2)当 $i$=1或2时,用户$i$接收上一轮全局训练的用户$N - 1$或用户$N$的本地模型参数${{\boldsymbol{\theta}} ^{(t - 1,N - 1)}}$${{\boldsymbol{\theta}} ^{(t - 1,N)}}$再执行算法中的步骤8)~16).

3. 收敛分析

对所提的可验证的去中心化FL算法分析其误差界限. 首先,需要以下定义与假设.

定义1 光滑性. 如果存在常数$L > 0$使本地目标函数$f(x)$满足${\text{L}}$光滑,那么$ \forall {\boldsymbol{v}},{\boldsymbol{w}} \in {{\bf{R}}^d} $,有

$ f({\boldsymbol{v}}) - f({\boldsymbol{w}}) \leqslant \left\langle {{\boldsymbol{v}} - {\boldsymbol{w}},\left. {\nabla f({\boldsymbol{w}})} \right\rangle } \right.+\frac{L}{2}\left\| {{\boldsymbol{v}} - {\boldsymbol{w}}} \right\|_2^2. $

定义2 PL不等式.如果存在常数$\mu > 0$使得可微函数$f(x)$满足Polyak- Lojasiewicz (PL)不等式[25],那么$ \forall {\boldsymbol{x}} \in {{\bf{R}}^d} $,有

$ \mu (f({\boldsymbol{x}}) - {f^ * }) \leqslant \frac{1}{2}\left\| {\nabla f({\boldsymbol{x}})} \right\|_2^2. $

式中:${f^ * }: = f({{\boldsymbol{x}}^ * })$${{\boldsymbol{x}}^ * } = \arg \min\; f({\boldsymbol{x}})$.

假设1  在整个学习过程中,$F({\boldsymbol{x}})$${f_{{d}}}({\boldsymbol{x}})$的梯度均具有上限${B_1}$,并假设${f_{{d}}}({\boldsymbol{x}})$的梯度具有下限${B_2}$,即$\left\| {\nabla F({\boldsymbol{x}})} \right\|_2^2 \leqslant {B_1}$${B_2} \leqslant \left\| {\nabla {f_{{d}}}({\boldsymbol{x}})} \right\|_2^2 \leqslant {B_1}$,同时$0 < {B_2} \leqslant {B_1}$. 此外,假设训练数据集与验证数据集的损失函数的梯度的差值是受限的,即$E[\left\| {\nabla F({\boldsymbol{x}})}\right. - \left. {\nabla {f_{{d}}}({\boldsymbol{x}})} \right\|_2^2] \leqslant {B_3}$.

借由上述定义与假设,讨论本算法的收敛情况.

理论1 假设经验损失函数$F({\boldsymbol{x}})$和验证数据集上的经验损失函数${f_{{d}}}({\boldsymbol{x}})$均是光滑函数且满足PL不等式,同时满足假设1. 如果有常量$\beta > 0$,使得$\rho \geqslant \dfrac{{\beta \sqrt \gamma {B_1}}}{{2\mu {B_2}}}$,在经过T轮次的全局迭代后,有以下的误差界限:

$ \begin{split} E&[F({{\boldsymbol{\theta}} ^{(T,N)}}) - F({{\boldsymbol{\theta}} ^ * })]\leqslant \\ &{U_1}^{TN}E[F({{\boldsymbol{\theta}} ^{(0,0)}}) - F({{\boldsymbol{\theta}} ^ * })]+{U_2}. \end{split} $

式中:${U_1} = 1 - \beta \sqrt \gamma $${U_2} = \dfrac{{\sqrt \gamma }}{{2\beta }}[(1+\gamma L){B_1}+{B_3}+\varepsilon ].$

证明 如果第$i$用户回传的梯度信息${\boldsymbol{g}}$满足第$i - 1$用户上的SCORE函数,即

${\mathrm{SCORE}}(\gamma ,\rho ) \geqslant - \gamma \varepsilon $. 根据SCORE函数的定义,此结果可以改写为

$ {f_{{d}}}({{\boldsymbol{\theta}} ^{(t,i - 1)}}) - {f_{{d}}}({{\boldsymbol{\theta}} ^{(t,i - 1)}} - \gamma {{\boldsymbol{g}}_{\mathrm{a}}}) - \rho \left\| {{{\boldsymbol{g}}_{\mathrm{a}}}} \right\|_2^2 \geqslant - \gamma \varepsilon . $

${f_{{d}}}( \cdot )$进行泰勒公式展开和近似运算,可以得到

$ \left\langle {\nabla {f_{{d}}}} \right.({{\boldsymbol{\theta}} ^{(t,i - 1)}}),\left. { - \gamma {{\boldsymbol{g}}_{\mathrm{a}}}} \right\rangle \leqslant - \rho \left\| {{{\boldsymbol{g}}_{\mathrm{a}}}} \right\|_2^2+\gamma \varepsilon . $

利用二范数性质、梯度受限假设和训练数据集与验证数据集的相似假设,可以得到

$ \begin{split} \left\langle \nabla \right.& F({{\boldsymbol{\theta}} ^{(t,i - 1)}}),\left. { - \gamma {{\boldsymbol{g}}_{\mathrm{b}}}} \right\rangle = \\ &\left\langle \nabla \right.F({{\boldsymbol{\theta}} ^{(t,i - 1)}}) - \nabla {f_{{d}}}({{\boldsymbol{\theta}} ^{(t,i - 1)}}),\left. { - \gamma {{\boldsymbol{g}}_{\mathrm{b}}}} \right\rangle + \\ &\left. {\left\langle {\nabla {f_{{d}}}({{\boldsymbol{\theta}} ^{(t,i - 1)}}),} \right. - \gamma {{\boldsymbol{g}}_{\mathrm{b}}}} \right\rangle \leqslant \\ &\frac{\gamma }{2}\left\| {\nabla F({{\boldsymbol{\theta}} ^{(t,i - 1)}}) - \nabla {f_{{d}}}({{\boldsymbol{\theta}} ^{(t,i - 1)}})} \right\|_2^2+ \frac{\gamma }{2}\left\| {{{\boldsymbol{g}}_{\mathrm{b}}}} \right\|_2^2 - \rho {B_2} + \gamma \varepsilon \leqslant \\ &-\rho \frac{{{B_2}}}{{{B_1}}}\left\| {\nabla F({{\boldsymbol{\theta}} ^{(t,i - 1)}})} \right\|_2^2+\frac{\gamma }{2}{B_3}+\frac{\gamma }{2}{B_1}+\gamma \varepsilon .\\[-10pt] \end{split} $

将式(10)结合光滑性和PL不等式,可以得到

$\begin{split} &E[ F({{\boldsymbol{\theta}} ^{(t,i)}}) - F({{\boldsymbol{\theta}} ^ * })] \leqslant \\ & E[F({{\boldsymbol{\theta}} ^{(t,i - 1)}}) - F({{\boldsymbol{\theta}} ^ * })]+\left\langle {\nabla F\left( {{{\boldsymbol{\theta}} ^{\left( {t,i - 1} \right)}}} \right),\gamma {{\boldsymbol{g}}_{\rm{b}}}} \right\rangle +\frac{{L{B_1}{\gamma ^2}}}{2} \leqslant \\ &E[F({{\boldsymbol{\theta}} ^{(t,i - 1)}}) - F({{\boldsymbol{\theta}} ^ * })] - \rho \frac{{{B_2}}}{{{B_1}}}\left\| {\nabla F({{\boldsymbol{\theta}} ^{(t,i - 1)}})} \right\|_2^2+ \\&\frac{{L{B_1}{\gamma ^2}}}{2}+\frac{{\gamma ({B_1}+{B_3})}}{2}+\gamma \varepsilon \leqslant \\ & (1 - 2\mu \rho \frac{{{B_2}}}{{{B_1}}})E[F({{\boldsymbol{\theta}} ^{(t,i - 1)}}) - F({{\boldsymbol{\theta}} ^ * })]+ \\&\frac{{L{B_1}{\gamma ^2}}}{2}+\frac{{\gamma ({B_1}+{B_3})}}{2}+\gamma \varepsilon .\\[-3pt]\end{split} $

通过迭代和计算整体期望,在经过T轮全局训练后,可以得到理论1. 通过文献[26]中对正则化经验风险最小化优化算法的收敛速度的比较方法,本算法的第T轮全局迭代输出的模型${{\boldsymbol{\theta}} ^{(T,N)}}$与最优模型${{\boldsymbol{\theta}} ^ * }$的对应的正则化经验风险的差值趋于0,所以本算法是收敛的. 同时,在有界梯度假设下,本算法具有线性收敛速率,这与FedAvg算法[1]以及部分去中心化联邦学习优化算法[4-7]的收敛速率一致. 误差界限中的超参数$\rho $在收敛速率和用户梯度取舍之间做出均衡,如果增大$\rho $,可以加快算法收敛速度,但可能会抛弃更多的诚实梯度(用户).

4. 数值验证

通过实验仿真对所提去中心化联邦学习算法的性能进行评估. 在本实验中,假设去中心化网络中节点与节点之间的通信是理想且无损的.

4.1. 实验设置

在本次实验中,总数据集为CIFAR-10[27]和MNIST[28],前者包含了60000张$32 \times 32$像素的10个类别的自然彩色图片;后者包含了70000张$28 \times 28$像素的0~9数字的手写灰度图像. 将总数据集中的样本按照类别和数量随机平均分配给所有的用户,即每个用户数据集都有10个类别的图片,且每类别的图片数量相等. 同时,采用对所有的用户数据集样本进行随机采样的方式来构成一个适用于SCORE函数的验证数据集(在实际场景下,任务发布者无法接触到用户的个人数据,为此,可以通过社会实践、大数据调查以及一些不触犯用户隐私的方式来获取先验知识,或者直接从受信任的用户收集信息并添加噪声来构造验证数据集).

在一台装备了NVIDIA GeForce GTX 1660 SUPER显卡的主机上,基于Mxnet[29]平台,利用卷积神经网络(convolutional neural networks,CNN)对算法进行实验仿真. 此卷积神经网络包含4个卷积层和4个全连接层,并在卷积层之间嵌入Batch Norm层和Dropout层来防止神经网络的过拟合. 在实验过程中,利用测试数据集上的准确率作为衡量模型性能的标准. 同时,采用假阳率、假阴率来表示被采用的信息是错误信息、被抛弃的信息是正确信息的概率.

4.2. 仿真结果

利用实验仿真来探究拜占庭用户的数量、拜占庭用户的攻击方式以及阈值划分方式对于可验证去中心化联邦学习算法性能的影响.

4.2.1. 拜占庭用户的影响

比较在同样超参数设置和CIFAR-10数据集下,不同类型的拜占庭攻击方式和不同数量的拜占庭节点对于算法性能的影响. 采用环形网络下的联邦学习作为对照算法,该算法不受拜占庭攻击的影响,记为“理想的去中心化FL”.

首先模拟一个拥有20个节点,其中5个节点执行符号反转攻击的去中心化网络,比较无恶意用户的情况、存在恶意用户但执行可验证的去中心化FL算法的情况和无任何拜占庭容错算法但存在恶意用户的情况下的性能. 如图4所示为不同情况下,去中心化联邦学习在测试集上的准确率. 图中,A为准确率,t为轮次. 实验结果表明,去中心化网络在面对符号反转攻击时十分脆弱,去中心化联邦学习无法进行收敛,而利用所提出的拜占庭容错算法后,训练出的模型甚至可以媲美无攻击时环形网络上训练出的模型.

图 4

图 4   25%的用户执行符号反转攻击时不同算法的准确率

Fig.4   Accuracy of different algorithms for 25% of users performing sign-flipping attack


为了探究不同数量的拜占庭节点对可验证的去中心化FL算法的影响,将去中心化网络中恶意节点数量提高一倍,即有10个拜占庭节点,占节点总数的50%. 比较图45,可以发现所提出的算法对于不同数量的拜占庭节点具有鲁棒性,尽管恶意节点的数量增加了,但经此算法训练出的全局模型还能保持良好的性能.

图 5

图 5   50%的用户执行符号反转攻击时不同算法的准确率

Fig.5   Accuracy of different algorithms for 50% of users performing sign-flipping attack


为了探究拜占庭节点的不同攻击方式对可验证的去中心化FL算法的影响,将去中心化网络中恶意节点实施的符号反转攻击更改为标签反转攻击,比较图56,发现此方法也可以针对不同类型的攻击方式进行防御. 同时,根据图56中的无任何拜占庭容错算法但存在恶意用户的情况下的模型性能的比较,可以发现模型污染攻击(符号反转)比数据污染攻击(标签反转)更加直接且高效.

图 6

图 6   50%的用户执行标签反转攻击时不同算法的准确率

Fig.6   Accuracy of different algorithms for 50% of users performing label-flipping attack


4.2.2. 阈值划分的影响

图7所示为阈值划分对FP和FN的影响. 可以看出,在相同的数据集和超参数设置下,带有阈值重划分的本研究算法在面对符号反转攻击和常数向量攻击时,可以有效降低无阈值重划分算法训练出的模型中的假阳和假阴概率. 然而,由于阈值重划分针对的是SCORE函数中的预估梯度的下降值和梯度信息的惩罚值,无法对标签反转这类定向攻击的阈值进行精准划分,只能小幅减少标签反转的模型性能的假阳和假阴概率.

图 7

图 7   阈值划分对假阳率和假阴率的影响

Fig.7   Effect of threshold division on false positive and false negative


在相同的CNN、30%的恶意用户比例和同样的超参数设置下,将可验证的去中心化FL算法与一些经典或先进的鲁棒FL算法进行比较. 如表1所示,展示了这些算法分别在CIFAR_10数据集和MNIST数据集上,面对高斯噪声攻击和标签反转攻击下的准确率. 本研究提出的可验证的去中心化FL算法相较于现有的拜占庭容错FL算法,不仅对于不同的拜占庭攻击方式表现了更一致和更好的鲁棒性,并且更加贴近良性环境下的训练性能.

表 1   CIFAR_10(MNIST)数据集上不同鲁棒算法的准确率

Tab.1  Accuracy of different robust algorithms on CIFAR_10(MNIST) dataset

鲁棒算法A
无攻击高斯噪声标签反转
注:1) 前一个数据表示CIFAR-10数据集上的准确率,括号中数据表示MNIST数据集上的准确率.
FedAvg[1]70.25(99.29)1)10.00(11.35)51.37(94.58)
Trim_mean[11]70.78(99.34)10.29(11.35)46.74(94.47)
Krum[14]57.75(98.51)57.24(97.34)10.00(11.35)
RobustFedt[15]69.75(99.32)54.67(98.34)51.10(96.34)
可验证去中心化FL70.79(98.45)69.30(98.37)69.13(98.33)

新窗口打开| 下载CSV


5. 结 语

针对抵抗拜占庭攻击的去中心化联邦学习,基于随机梯度下降算法(SGD)提出鲁棒梯度聚合方法. 通过结合验证数据集和SCORE函数,有效提高了算法对于拜占庭攻击的鲁棒性. 从理论上证明了所提算法的收敛性质,大量数值实验也说明可验证的去中心化FL算法能够确保:在存在未知数量和攻击方式的拜占庭用户的去中心化场景下,所训练的全局模型能够保持良好性能,并可以更准确地区分诚实节点与拜占庭节点. 在未来的工作中,将进一步研究如何把去中心化联邦学习与无线传输相结合,以提高联邦学习的通信效率和隐私性.

参考文献

XIE C, KOYEJO S, GUPTA I. Zeno++: robust fully asynchronous SGD [C]// International Conference on Machine Learning . Vienna: PMLR, 2020: 10495−10503.

[本文引用: 2]

SO J, GÜLER B, AVESTIMEHR A S

Byzantine-resilient secure federated learning

[J]. IEEE Journal on Selected Areas in Communications, 2020, 39 (7): 2168- 2181

[本文引用: 1]

WANG H, MUÑOZ-GONZÁLEZ L, EKLUND D, et al. Non-IID data re-balancing at IoT edge with peer-to-peer federated learning for anomaly detection [C]// Proceedings of the 14th ACM Conference on Security and Privacy in Wireless and Mobile Networks . New York: Association for Computing Machinery, 2021: 153−163.

[本文引用: 1]

KANG J, XIONG Z, NIYATO D, et al

Reliable federated learning for mobile networks

[J]. IEEE Wireless Communications, 2020, 27 (2): 72- 80

DOI:10.1109/MWC.001.1900119      [本文引用: 1]

GHOLAMI A, TORKZABAN N, BARAS J S. Trusted decentralized federated learning [C]// 2022 IEEE 19th Annual Consumer Communications and Networking Conference (CCNC) . Las Vegas: IEEE, 2022: 1−6.

[本文引用: 1]

ZHAO Y, ZHAO J, JIANG L, et al

Privacy-preserving blockchain-based federated learning for IoT devices

[J]. IEEE Internet of Things Journal, 2020, 8 (3): 1817- 1829

[本文引用: 1]

LU Y, HUANG X, ZHANG K, et al

Blockchain empowered asynchronous federated learning for secure data sharing in internet of vehicles

[J]. IEEE Transactions on Vehicular Technology, 2020, 69 (4): 4298- 4311

DOI:10.1109/TVT.2020.2973651      [本文引用: 1]

肖丹. 去中心联邦学习中抗女巫和拜占庭攻击的研究[D]. 西安: 西安电子科技大学, 2022.

[本文引用: 1]

XIAO Dan. A study of resistance to witch and Byzantine attacks in decentralized federal learning [D]. Xi'an: Xi'an University of Electronic Science and Technology, 2022.

[本文引用: 1]

李丽萍. 基于模型聚合的分布式拜占庭鲁棒优化算法研究[D]. 安徽: 中国科学技术大学, 2020.

[本文引用: 1]

LI Liping. Research on distributed Byzantine robust optimization algorithm based on model aggregation [D]. Anhui: University of Science and Technology of China, 2020.

[本文引用: 1]

POLYAK B T

Gradient methods for the minimisation of functionals

[J]. USSR Computational Mathematics and Mathematical Physics, 1963, 3 (4): 864- 878

DOI:10.1016/0041-5553(63)90382-3      [本文引用: 1]

MCMAHAN B, MOORE E, RAMAGE D, et al. Communication-efficient learning of deep networks from decentralized data [C]// Artificial Intelligence and Statistics . Lauderdale: PMLR, 2017: 1273−1282.

[本文引用: 4]

LI T, SAHU A K, ZAHEER M, et al

Federated optimization in heterogeneous networks

[J]. Proceedings of Machine Learning and Systems, 2020, 2: 429- 450

[本文引用: 1]

刘铁岩, 陈薇, 王太峰, 等. 分布式机器学习算法理论与实践[M]. 北京: 机械工业出版社, 2018.

[本文引用: 1]

KRIZHEVSKY A. Learning multiple layers of features from tiny images [D]. Toronto: University of Toronto, 2009.

[本文引用: 1]

GHOLAMI A, TORKZABAN N, BARAS J S, et al. Joint mobility-aware UAV placement and routing in multi-hop UAV relaying systems [C]// Ad Hoc Networks: 12th EAI International Conference . Paris: Springer International Publishing, 2021: 55−69.

[本文引用: 1]

GAO H, HUANG H. Periodic stochastic gradient descent with momentum for decentralized training [EB/OL]. (2020−08−24). https://arxiv.org/abs/2008.10435.

[本文引用: 2]

DENG L

The mnist database of handwritten digit images for machine learning research [best of the web]

[J]. IEEE Signal Processing Magazine, 2012, 29 (6): 141- 142

DOI:10.1109/MSP.2012.2211477      [本文引用: 1]

CHEN T, LI M, LI Y, et al. Mxnet: a flexible and efficient machine learning library for heterogeneous distributed systems [EB/OL]. (2015−12−03). https://doi.org/10.48550/arXiv.1512.01274.

[本文引用: 1]

LI X, YANG W, WANG S, et al. Communication-efficient local decentralized sgd methods [EB/OL]. (2021−04−05). https://doi.org/10.48550/arXiv.1910.09126.

LU S, ZHANG Y, WANG Y. Decentralized federated learning for electronic health records [C]// 2020 54th Annual Conference on Information Sciences and Systems . Princeton: IEEE, 2020: 1−5.

YU H, JIN R, YANG S. On the linear speedup analysis of communication efficient momentum SGD for distributed non-convex optimization [C]// International Conference on Machine Learning . Long Beach: PMLR, 2019: 7184−7193.

[本文引用: 2]

LAMPORT L, SHOSTAK R, PEASE M. The Byzantine generals problem [M]// Concurrency: the works of leslie lamport . New York: Association for Computing Machinery, 2019: 203−226.

[本文引用: 2]

DAMASKINOS G, GUERRAOUI R, PATRA R, et al. Asynchronous Byzantine machine learning (the case of SGD) [C]// International Conference on Machine Learning . Stockholm: PMLR, 2018: 1145−1154.

[本文引用: 1]

CHEN Y, SU L, XU J

Distributed statistical machine learning in adversarial settings: Byzantine gradient descent

[J]. Proceedings of the ACM on Measurement and Analysis of Computing Systems, 2017, 1 (2): 1- 25

[本文引用: 1]

YIN D, CHEN Y, KANNAN R, et al. Byzantine-robust distributed learning: towards optimal statistical rates [C]// International Conference on Machine Learning . Stockholm: PMLR, 2018: 5650−5659.

[本文引用: 1]

XIE C, KOYEJO O, GUPTA I. Phocas: dimensional byzantine-resilient stochastic gradient descent [EB/OL]. (2018−05−23). https://doi.org/10.48550/arXiv.1805.09682.

XIE C, KOYEJO O, GUPTA I. Generalized byzantine-tolerant sgd [EB/OL]. (2018−05−23). https://doi.org/10.48550/arXiv.1802.10116.

BLANCHARD P, EL MHAMDI E M, GUERRAOUI R, et al. Machine learning with adversaries: Byzantine tolerant gradient descent [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems . New York: Curran Associates Inc, 2017: 118−128.

[本文引用: 2]

TAHMASEBIAN F, LOU J, XIONG L. Robustfed: a truth inference approach for robust federated learning [C]// Proceedings of the 31st ACM International Conference on Information and Knowledge Management . New York: Association for Computing Machinery, 2022: 1868−1877.

[本文引用: 2]

/