在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
一、介绍概览研究动机:现实应用中,大规模的图数据往往是动态的而不是静态的。新的节点和边会随时出现。而当这种情况发生后,并不容易决定是重新训练模型还是在原有模型的基础上进行训练。作者将经过预训练的GNN和从头再训练的GNN进行了对比,对于新插入的节点和边,经过预训练的GNN性能强于在新插入的节点和边的图数据上进行重新训练的GNN。 本文中,作者创建了一个专用实验来评估图神经网络的推理能力。作者将网络模型应用于两种训练测试设置,一个有大量含标签的节点,另外一个只有少许的节点有标签。在训练之后,会向graph中插入新的节点和边,然后模型再进行少许的参数更新。作者仔细分析了每个推断时期后的测试准确性,同时比较了预训练与未预训练的网络性能。作者将GCN,GAT,GraphSAGE分别进行了实验。作者进行了60个实验,每个实验100次重复,以减轻随机效应。 作者发现,预训练对于所有的模型是确实有益的。 这个结果适用于两个训练测试设置,带有多个标记节点的数据集,带有少许标记节点的数据集。
Inductive learning 与 Transductive learning参考:link 二、实验设置在训练集中,只有两个节点都存在时,他们的边才存在。训练过程分为两步:首先,在经过标记的训练集上对模型进行预训练。之后,将新的节点和边加入图中然后进行少许的参数更新。并且新的节点并不引进新的标签。他们会提供特征并连接到有标签的节点。我们在每个推断时期之前和之后评估测试节点(这些节点是未见节点的子集)的准确性。 对于每个模型,我们进行了200个epoch预训练并与不进行预训练的情况进行比较。 在后一种情况下,训练在推理期间开始,这等效于每当插入新节点和边时从头开始进行训练。 这使我们能够评估预训练是否有助于将图神经网络应用于动态图。 实验结果: 总结作者的实验设置接近于实际应用,其中新节点会随着时间动态地出现。 并发现,在数据更改时保持一个模型并继续训练过程是处理动态图的有效方法。 |
请发表评论