【论文导读】- SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks(去服务器的多任务图联邦学习)
文章目录
论文信息
SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks
原文链接:SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks:https://arxiv.org/abs/2106.02743
摘要
Graph Neural Networks (GNNs) are the first choice methods for graph machine learning problems thanks to their ability to learn state-of-the-art level representations from graph-structured data. However, centralizing a massive amount of real-world graph data for GNN training is prohibitive due to user-side privacy concerns, regulation restrictions, and commercial competition. Federated Learning is the de-facto standard for collaborative training of machine learning models over many distributed edge devices without the need for centralization. Nevertheless, training graph neural networks in a federated setting is vaguely defined and brings statistical and systems challenges. This work proposes SpreadGNN, a novel multi-task federated training framework capable of operating in the presence of partial labels and absence of a central server for the first time in the literature. SpreadGNN extends federated multi-task learning to realistic serverless settings for GNNs, and utilizes a novel optimization algorithm with a convergence guarantee, Decentralized Periodic Averaging SGD (DPA-SGD), to solve decentralized multi-task learning problems. We empirically demonstrate the efficacy of our framework on a variety of non-I.I.D. distributed graph-level molecular property prediction datasets with partial labels. Our results show that SpreadGNN outperforms GNN models trained over a central server-dependent federated learning system, even in constrained topologies.
图神经网络( GNN )是图机器学习问题的首选方法,因为它们能够从图结构数据中学习最先进的表示。然而,由于用户方面的隐私问题、法规限制和商业竞争,将大量的真实世界图形数据集中用于GNN训练是令人望而却步的。联邦学习是在许多分布式边缘设备上协同训练机器学习模型的事实上的标准,而无需集中化。尽管如此,在联邦环境中训练图神经网络是模糊定义的,并带来统计和系统挑战。本文首次在文献中提出了可以在存在部分标签和没有中心服务器的情况下运行的新型多任务联邦训练框架SpreadGNN。SpreadGNN将联邦多任务学习扩展到GNN的实际无服务器设置,并使用具有收敛保证的新型优化算法- -分布式周期平均SGD ( DPA-SGD )来解决分布式多任务学习问题。我们在多种带有部分标签的非I . I . D .分布式图水平分子性质预测数据集上实证了我们框架的有效性。我们的结果表明,即使在有约束的拓扑结构中,SpreadGNN也优于在中央服务器依赖的联邦学习系统上训练的GNN模型。
SpreadGNN Framework
用于图层次学习的联邦图神经网络
我们寻求在位于边缘服务器的分散图数据集上学习图级别的表示,这些数据集由于隐私和规则限制而无法集中进行训练。例如,分子试验中的化合物可能由于知识产权或监管方面的考虑而无法跨实体共享。在此设置下,我们假设FL网络中有K个客户端,并且每个客户端有自己的数据集。每个客户端都拥有一个带有readout的GNN,以学习图级表示。我们把这个GNN模型设置为一个readout函数和一个graph classifier。多个客户端可以协作改进他们的GNN模型,而不必透露他们的图数据集。在本文中,我们将理论建立在消息传递神经网络( Message Passing Neural Network,MPNN )框架之上,因为大多数空间GNN模型都可以统一到这个框架中。一个MPNN的前向传递有两个阶段:消息传递阶段(式( 1 ) )和更新阶段(式( 2 ) )。对于每个客户端,我们用一个有L层的GNN和一个readout函数来定义图分类器,如下所示:
其中,为第k个客户端的节点特征,l为层索引,AGG为聚合方法,Ni表示第i个节点的邻居。
为了构造基于GNN的FL,使用上面的模型定义之外,我们定义作为总体可学习的权重。注意,W独立于图结构,因为GNN和Readout参数都不对输入图做任何假设。因此,可以使用基于FL的方法学习W。整个FL任务可以表示为一个分布式优化问题:
其中,是度量异构图数据集D ( k )上的局部经验风险的第k个客户端的局部目标函数。L是全局图分类器的损失函数。
有了这样的公式,它可能看起来像是为基于FedAvg的优化器定制的优化问题。不幸的是,在分子图设置中,由于以下原因,情况并非如此。( a )在我们的环境中,客户端属于去中心化的无服务器拓扑。没有一个中心服务器可以从客户端对模型参数进行平均。( b )在我们的场景中,客户具有不完整的标签,因此Φ task的维度在不同的客户上可能不同。例如,一个客户可能只有一个分子的部分毒性标签,而另一个客户可能具有一个分子与另一个药物化合物的相互作用性质。即使每个客户的信息不完整,我们的学习任务也有兴趣在多个标签类别中对每个分子进行分类。联邦多任务学习( FMTL )是一个流行的框架,旨在处理这些问题。然而,目前的方法不能推广到非凸深度模型,如图神经网络。为了解决这些问题,我们首先在第2.2节中介绍一个用于图神经网络的集中式FMTL框架。但是,在由多个相互竞争的实体拥有的分子图中,依赖中央服务器可能是不可行的。因此,我们将这个集中式FMTL增强到第2.3节中的无服务器场景,我们称之为SpreadGNN。
图神经网络的联邦多任务学习
在正则化MTL范式下,我们定义了如下的集中式联邦图MTL问题( FedGMTL ):
图2-a描述了客户图分类器权重使用FLserver的FedGMTL框架。虽然上面的公式通过一个可用于GNN学习的受限正则化器增强了FMTL,但我们仍然需要解决最后的挑战,即消除对中央服务器的依赖,以执行公式5中的计算。因此,我们提出了一个去中心化图多任务学习框架SpreadGNN,并利用我们新的优化器去中心化周期平均SGD ( DPA-SGD )来扩展FMTL框架。去中心化框架如图2 - c所示。注意,每个客户机的学习任务保持不变,但SpreadGNN中的聚合过程不同。
SpreadGNN
为了过渡到无服务器设置,我们引入了一种新的优化方法,称为去中心化周期平均SGD ( DPA-SGD )。DPA - SGD的主要思想是每个客户机在本地应用SGD,并在每τ次迭代发生的通信轮中仅与邻居同步所有参数。在一个分散的系统中,所有客户端不一定连接到所有其他客户端,这也使得维护一个任务协方差矩阵Ω是不可能的。因此,我们提出使用不同的协方差矩阵Ωkin每个客户端,并使用图3所示的交换机制进行高效更新。我们将这个想法形式化如下。考虑一个特定的客户m有任务权重Φ task,m∈Rd × Sm其中Sm为客户m拥有的任务数。
在去中心化的设置中,我们强调客户端可以集体学习任务的穷举集,即使客户端可能无法访问每个多类标签中的某些类。那么,新的非凸目标函数可以定义为:
为了解决这个非凸问题,我们应用了文献中提出的交替优化方法,其中W k和Ωk以交替的方式更新。
第一个平均项可以将附近的节点相关性合并为它自己的相关性。值得注意的是,每个Ωimay具有不同的维度(不同数量的邻居),因此该平均算法是基于全局Ω中的节点对齐。falign函数如图3所示。在这里,对每个客户机执行falign,第二项捕获其邻居之间的新相关性,如图3所示。
DPA-SGD的收敛性质
在这一部分,我们给出了DPA - SGD的收敛性分析.我们的分析解释了为什么DPA - SGD在联邦环境下运行良好。在上一节中,我们介绍了DPA - SGD算法。在任何形式之前,我们首先引入一个二进制对称的节点连接矩阵M∈RK × K来记录网络中的连接,其中Mi是一个二进制值,表示节点i和j是否连接。我们假设M满足:(a) M1K = 1K , (b) MT = M , c) max { | λ2 ( M ) |,. . .,| λK ( M ) | } < λ1 ( M ) = 1,其中λ是M的特征值。注意到,如果M = I ( Identity matrix ),那么每个节点都是独立的并且分别更新参数.如果M = J(每个元素一个),则模型退化为集中式模型。在这里,我们给出了DPA - SGD的数学上简单方便的更新规则:
接下来,我们将给出我们对上述平均模型ut的收敛性的分析。对于非凸优化,先前关于SGD收敛性分析的工作使用平均平方梯度范数作为收敛到稳定点的指标。
假设,假设1和定义( 13 )成立。然后,如果学习率η满足以下条件:
以上表明DPA - SGD算法在收敛速度和包括通信效率(通信轮数)和收敛速度在内的系统优化之间是一个折中。最近的工作在一个统一的框架下得到了相同的结果。我们的工作与这项工作的不同之处在于它没有为联邦学习提供充分的理论分析和实证评估。
实验
为了证明我们的框架不依赖于GNN模型的选择,我们在两种不同的GNN架构上运行实验:GraphSAGE和GAT。
我们首先在一个完整的拓扑中评估我们的框架,其中所有客户端都连接到所有其他客户端,以衡量我们提出的正则化器的有效性。然后,我们对每个客户的邻居数量进行消融研究,以强调在更有约束力的环境中测试我们的框架。
我们使用一个中央的、服务器依赖的FedAvg系统作为比较的基准。更具体地说,在每个平均轮中,所有客户端都参与模型参数的平均。
我们在表2中总结的结果表明,当所有客户端都可以与所有其他客户端通信时,SpreadGNN (第三列)优于使用FedAvg (第一列)的集中式联邦学习系统。这表明,通过使用方程6中的任务正则化器和DPA - SGD算法的组合,我们可以消除对中央服务器的依赖,并使客户能够在其各自的标签中缺少分子属性的情况下更有效地学习。此外,结果还表明,由于Graph SAGE和GAT都受益于我们的框架,我们的框架对用于分子性质预测任务的GNN模型类型不敏感。我们的框架也适用于可信中心服务器可用的情况(第二列)。可信中心服务器的存在提高了少数场景下的准确率。然而,SpreadGNN在中央服务器不可行的更现实的环境中提供了竞争性能。
图4显示了λ 1对回归和分类任务的影响。有趣的是,回归对λ 1的变化更加稳健,而分类则需要更仔细地调整λ 1以获得最佳的模型性能。这意味着回归任务中的不同属性比分类任务中的属性更加独立。
网络拓扑结构决定了一个通信轮中每个客户端可以与多少邻居进行通信。虽然表2显示了SpreadGNN在一个完整的拓扑中优于FedAvg,但是图5显示了我们的框架即使在客户端被限制与更少的邻居通信时也优于FedAvg。我们还可以看到,重要的不仅仅是邻居,客户端连接的拓扑结构也很重要。当n邻域= 2时,环拓扑优于随机拓扑,因为环保证了从任意客户端到任意其他客户端的路径。因此,学习在所有客户端之间是间接共享的。
总结
在这项工作中,我们提出了SpreadGNN,一个在无服务器的联邦系统中训练图神经网络的框架。我们通过一个现实的环境来激励我们的框架,在这个环境中,由于隐私和竞争,参与分子机器学习研究的客户无法相互共享数据。此外,我们进一步认识到,客户可能只拥有其数据的部分标签。通过实验分析,我们首次表明,以联邦方式训练图神经网络不需要集中式拓扑结构,并且我们的框架可以解决非独立同分布indataset大小和客户端之间的标签分布问题。即使在客户端只能与少数邻居通信的情况下,SpreadGNN也能超越中心服务器依赖基线。为了支持我们的实证结果,我们还给出了SpreadGNN使用的DPA - SGD优化算法的收敛性分析。
来源地址:https://blog.csdn.net/weixin_43598687/article/details/128635787
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341