基于无线D2D网络的分层联邦学习
Hierarchical federated learning based on wireless D2D networks
通讯作者:
收稿日期: 2022-07-22
基金资助: |
|
Received: 2022-07-22
Fund supported: | 国家自然科学基金资助项目(61671407) |
作者简介 About authors
刘翀赫(1999—),男,硕士生,从事联邦学习研究.orcid.org/0000-0002-1895-7076.E-mail:
为了解决在无线网络中部署联邦学习面临的通信资源消耗大和设备计算资源有限的问题,提出一种基于无线设备直通(D2D)网络的分层联邦学习框架. 与传统架构不同,模型训练采用分层聚合. 该框架通过D2D网络进行簇内聚合,各个簇同时进行去中心化训练,从每个簇中选择一个簇头上传模型至服务器进行全局聚合. 通过将去中心化学习与分层联邦学习结合,降低了中央节点网络流量. 使用D2D网络中节点的度来衡量模型收敛性能,通过最大化所有簇头的度之和,对簇头选择与带宽分配问题进行联合优化,并且设计一种基于动态规划的算法求出最优解. 仿真结果表明,与基线算法相比,该框架不仅能够有效地降低全局聚合的频率和减少训练时间,而且能够提高最终训练得到的模型性能.
关键词:
A hierarchical federated learning framework based on wireless device-to-device (D2D) networks was proposed to solve the problem of large communication resource consumption and limited device computing resources faced by deploying federated learning in wireless networks. Different from the traditional architectures, the hierarchical aggregation was adopted for model training. The architecture performed the intra-cluster aggregation through D2D networks, and each cluster performed the decentralized training at the same time. A cluster head was selected from each cluster to upload the model to the server for global aggregation. The network traffic of the central node was reduced by combining the hierarchical federated learning and decentralized learning. The degree of the vertices in the D2D networks was used to measure the model convergence performance. The head selection and bandwidth allocation were jointly optimized by maximizing the total degree of selected cluster heads. An optimization algorithm based on dynamic programming was designed to obtain the optimal solutions. The simulation results show that compared with the baseline algorithm,the framework can not only effectively reduce the frequency of global aggregation and training time, but also improve the performance of the final model.
Keywords:
本文引用格式
刘翀赫, 余官定, 刘胜利.
LIU Chong-he, YU Guan-ding, LIU Sheng-li.
在移动数据流量爆炸式增长的驱动下,机器学习在大量研究领域取得显著的成功,例如计算机视觉和自然语言处理. 随着越来越多的边缘设备接入互联网,无线网络中的训练数据可能会被各种设备收集,由于严格的隐私协议和稀缺的通信资源,这些数据无法被传输到中央服务器. 为了克服这些挑战,最近提出的联邦学习已经成为一种流行的分布式机器学习技术[1-2],该技术使许得多设备能够训练本地模型并与服务器交换模型参数或梯度. 联邦学习系统中的设备通常是以星形拓扑连接[3],例如在典型的参数服务器架构中,每个设备根据自己的数据集训练一个局部模型后上传到服务器,服务器通常使用加权平均值将其聚合为全局模型[4]. 在大规模设备共同参与联邦学习训练的场景中,由于中央服务器需要聚合来自数百个设备的模型信息,通信资源成为影响联邦学习系统收敛速率的关键因素[5]. 当系统中可用的网络带宽较低时,中心化架构会导致网络中产生流量拥塞,模型训练的收敛速率会显著下降.
为了实现通信高效的联邦学习,将传统的设备到服务器通信与设备直通(device-to-device, D2D)通信相结合[8-9],提出一种基于无线D2D网络的分层联邦学习. 依据所处的地理位置将边缘设备划分为多个簇,各个簇同时进行去中心化学习[10],通过共同训练机器学习模型来确保实现共同的学习目标. 在训练的2个全局聚合间隔期间,设备在各自的数据集上执行若干次随机梯度下降(stochastic gradient descent, SGD)迭代,通过簇内的无线D2D通信网络,设备定期地与邻居设备交换模型参数进行簇内模型聚合. 在全局聚合时,每个簇中只有一个设备需要将模型上传到服务器,这个设备被定义为簇头. 服务器根据模型平均算法,对所有簇头的本地模型进行全局聚合. 簇头的模型反映其集群经过去中心化训练后得到的本地模型的特征[11-12].
与大多数传统的设备需要上传本地模型的联邦学习不同,所提方法大大减少了设备与基站之间通信的数据量,降低了中央基站发生流量拥塞的可能性. 对于全局聚合期间的簇头选择与带宽分配问题进行联合优化,使用图中节点的度来衡量模型性能,并基于动态规划设计最优簇头选择和带宽分配的算法,使用真实数据集的仿真结果证明无线D2D网络的分层联邦学习算法的性能. 该算法通过分层聚合和D2D通信,减少模型收敛所需的训练时间,同时将分层联邦学习算法的扩展到簇内无服务器的系统结构.
1. 系统模型与算法
1.1. 系统模型
考虑具有一个边缘服务器和
图 1
图 1 基于无线D2D网络的分层联邦学习系统模型
Fig.1 System model of hierarchical federated learning system based on wireless D2D networks
边缘设备
1.2. 分层联邦学习算法
在联邦学习系统中,每个设备
式中:
分层联邦学习算法主要目标是优化全局模型参数
在无线D2D网络的分层联邦学习中,训练过程分为本地模型更新、簇内聚合和全局聚合3个步骤, 这些步骤的组合称为一个训练轮次.
1)本地模型更新:每个设备使用 SGD 算法更新本地模型. 在训练的第
式中:
2)簇内聚合:簇内设备进行
式中:常数
3)全局聚合:当所有的簇进行
最后,服务器将全局模型广播到所有设备. 重复上述步骤,直到全局模型收敛.
为了更清楚地说明提出算法的训练过程,在图2中给出示例,其中有4个设备,分别编号为1~4,每个矩形的长度表示相应操作的时间消耗. 对于分层去中心化联邦学习,根据设备的位置将分为2个簇,即设备1和2属于簇1,设备3和4属于簇2,然后每个集群独立执行去中心化训练过程. 从第
图 2
2. 通信模型
2.1. 带宽资源分配概述
无线联邦学习系统的可用带宽资源为
2.2. 簇内D2D通信
基于无线D2D网络进行簇内聚合,考虑簇
1)本地模型的计算时延:设备进行
式中:
2)D2D通信时延:为了利用设备的接近性并缩短通信时间,D2D链路用于簇内设备之间的数据传输. 设备向邻居集合
式中:
为了提高收敛速率,在可用带宽资源为
式中:
2.3. 簇头与基站通信
在所有的簇都经过
基站使用带宽
基站上的服务器对所有簇头模型参数进行平均所需的计算时延为
3. 簇头选择与带宽分配
3.1. 问题建模
为了降低全局聚合时的通信时延,优化簇头与基站通信的带宽资源分配方法以及提高全局模型的性能表现,需要确定合理的簇头选择方法. 簇头的本地模型能够精确地反映集群经过训练后得到的模型特征. 在全局聚合阶段,从每个簇内选择作为簇头设备的集合为
簇头通过无线链路与基站相互通信,进行模型参数的传输,基站收集到所有簇头上传的数据后才能进行全局参数聚合. 为了避免链路质量差的设备被选为簇头进而限制整体的收敛速率,根据所有设备的上传时间确定一个常量
经过若干轮簇内去中心化训练后,选择性能好的模型上传有利于加快全局收敛. 为了提高算法的收敛速率,通过联合优化簇头的选择问题与簇头上行链路带宽分配,最大化收敛速率. 在给定的传输时间上界
为了研究连通图中节点的度对去中心化训练得到的模型收敛性能的影响,在数据独立分布的10个设备组成的集群中,进行由式(3)~(5)定义的去中心化分布式训练, 直到与所有设备关联的全局损失函数收敛至ε=0.15. 每次实验前随机生成D2D连通图,分别在Cifar-10和MNIST数据集上训练卷积神经网络(CNN)和深度神经网络(DNN),进行100次实验后,根据数据拟合每个设备的局部经验损失
图 3
图 3 在Cifar-10上训练CNN局部经验损失与度的关系
Fig.3 Local experience loss versus degree for training CNN on Cifar-10
图 4
图 4 在MNIST上训练DNN局部经验损失与度的关系
Fig.4 Local experience loss versus degree for training DNN on MNIST
在本研究中,以设备在连通图中的度来衡量设备的本地模型学习性能,联合优化问题的目标即可建模为:在规定的上行传输时间上界
当
1) 将二维数组
2)
3)
4)
5)
6)
7)
从
4. 仿真实验结果
4.1. 实验设置
考虑一个r=300 m的小蜂窝网络. 小区内有
考虑到训练分类器的学习任务,采用经典的CNN模型 VGG19和具有2个隐藏层的DNN模型进行实验. 对于CNN,使用著名的Cifar-10数据集,其中包含50 000张训练图像和10 000张测试图像,具有10个类别;对于DNN,使用手写数据集MNIST中的50 000张训练图像和10 000张测试图像. 由于数据分布可能受地理位置和用户习惯的影响,在不同集群设备之间的数据分布是非独立同分布的,即首先按标签对所有数据样本进行排序,然后将它们分成50个大小为1 000的分片,为每个集群分配 5个分片. 每个集群只能获得5类训练样本. 以独立同分布的方式将数据样本均匀地分配到集群中的设备上. 为了避免选择上行信道较差的设备选为簇头而增大全局聚合的时延,传输时间上界
式中:
4.2. 与基线算法对比
为了验证所提利用D2D通信的分层联邦学习可以节约通信开销,加快收敛速率,对所提算法与传统的联邦学习算法FedAVG[4]和现有的分簇联邦学习算法FedCH[7]的性能进行对比. 在作为基线的FedAVG算法中,系统带宽
图 5
图 5 不同算法下CNN在Cifar-10上的准确率随时间变化
Fig.5 Accuracy of CNN on Cifar-10 varies with time in different algorithms
图 6
图 6 不同算法下DNN在MNIST上的准确率随时间变化
Fig.6 Accuracy of DNN on MNIST varies with time in different algorithms
不同于FedCH算法,所提算法使用D2D通信在簇内节点之间交换模型参数,避免中心节点收集模型参数时产生拥塞. 在训练CNN和DNN时,模型收敛速率提高了61.1%和56.3%. 相对于采用异步的方式进行全局聚合的FedCH算法,所提算法同步地对所有簇模型信息进行全局聚合,因此最终得到的模型性能更好.
4.3. 不同簇头选择方法的影响
为了验证所提簇头选择与带宽分配联合优化算法的有效性能,在下面的实验中实现了2种作为基线的簇头选择方法,即信道感知调度和连通度感知调度. 在信道感知调度中,依据设备与基站的上行信道状态、设备的发射功率,从每个簇中选择与基站通信时间最短的设备作为簇头,使得上传模型所需的总通信时延最小化. 被选为簇头的设备集合表示为
由于D2D链路的连通状态在整个训练过程中是不变的,每轮选择的簇头也固定不变. 在连通度感知调度中,为了提高全局模型的性能,从每个簇中选择在连通图中度最大的节点作为簇头即:
按照上述2种策略分别选择出簇头后,假设簇头
图 7
图 7 不同簇头选择方法下CNN在Cifar-10上的准确率随时间变化
Fig.7 Accuracy of CNN on Cifar-10 varies with time in different cluster head selection methods
图 8
图 8 不同簇头选择方法下DNN在MNIST上的准确率随时间变化
Fig.8 Accuracy of DNN on MNIST varies with time in different cluster head selection methods
4.4. 不同全局聚合频率的的影响
图 9
图 9 不同全局聚合频率下CNN在Cifar-10上的准确率随时间变化
Fig.9 Accuracy of CNN on Cifar-10 varies with time in different global aggregation frequencies
图 10
图 10 不同全局聚合频率下DNN在MNIST上的准确率随时间变化
Fig.10 Accuracy of DNN on MNIST varies with time in different global aggregation frequencies
5. 结 语
本研究提出一种基于无线D2D网络的分层联邦学习训练框架,构建集群拓扑并执行分层聚合以进行训练. 该系统结构通过D2D网络进行簇内聚合,各个簇同时进行去中心化训练. 从簇中选择一个代表集群训练结果的簇头上传模型至基站,进行全局聚合. 该框架降低了中央服务器出现流量拥塞的可能性,同时将分层联邦学习应用到簇内无服务器的场景. 为了缩短信时间并且提高模型的性能表现,使用图中节点的度来衡量本地模型的收敛性能,通过最大化所有簇头的度之和,对簇头选择与带宽分配问题进行联合优化,并且基于动态规划设计最优的算法. 仿真实验结果表明与基线算法相比,该框架可以有效缩短训练时间和提高学习性能.
参考文献
A Joint learning and communications framework for federated learning over wireless networks
[J].
Towards an intelligent edge: wireless communication meets machine learning
[J].DOI:10.1109/MCOM.001.1900103 [本文引用: 1]
Distributed learning in wireless networks: recent progress and future challenges
[J].DOI:10.1109/JSAC.2021.3118346 [本文引用: 1]
Federated learning in mobile edge networks: a comprehensive survey
[J].DOI:10.1109/COMST.2020.2986024 [本文引用: 1]
Decentralized edge intelligence: a dynamic resource allocation framework for hierarchical federated learning
[J].
Device-to-device communications in cellular networks
[J].DOI:10.1109/MCOM.2014.6807946 [本文引用: 1]
A survey on device-to-device communication in cellular networks
[J].DOI:10.1109/COMST.2014.2319555 [本文引用: 1]
Decentralized parallel sgd with privacy preservation in vehicular networks
[J].DOI:10.1109/TVT.2021.3064877 [本文引用: 1]
Resource allocation for D2D communication underlaid cellular networks using graph-based approach
[J].DOI:10.1109/TWC.2016.2597283 [本文引用: 1]
Joint parameter-and-bandwidth allocation for improving the efficiency of partitioned edge learning
[J].DOI:10.1109/TWC.2020.3021177 [本文引用: 2]
Adaptive subcarrier, parameter, and power allocation for partitioned edge learning over broadband channels
[J].DOI:10.1109/TWC.2021.3092075 [本文引用: 1]
Energy-efficient resource management for federated edge learning with CPU-GPU heterogeneous computing
[J].DOI:10.1109/TWC.2021.3088910 [本文引用: 1]
Dynamic programming and strong bounds for the 0-1 knapsack problem
[J].DOI:10.1287/mnsc.45.3.414 [本文引用: 1]
/
〈 |
|
〉 |
