用于图表示学习的Graph Propagation Transformer (GPTrans)

1,393次阅读
没有评论

今天为大家介绍的是发表在IJCAI
2023
上的一篇Transformer架构下考虑多角度关系的图表示学习模型的会议论文。本文提出一种新的注意力机制Graph
Propagation Attention(GPA)
用于建模点到点、点到边和边到点之间的关系;并在此基础上提出一个有效的Transformer架构Graph Propagation Transformer
(GPTrans)
以进一步学习图数据特征。模型整体分为Graph
Embedding
Graph
Propogation
FFN三个模块。

用于图表示学习的Graph Propagation Transformer (GPTrans)

1 介绍

尽管transformer-based模型的图表示学习方面表现良好,但他们仍然存在以下问题:(1)没有显式的利用图数据中节点与边的关系。(2)dual-FFN结构在transformer模块中效率低下。为了克服上述问题,本文提出一种基于transformer架构的图表示学习模型GPTrans,其中关键组件是它的GPA模块。如图1所示,GPA模块通过对节点到节点、节点到边和边到节点三种连接进行建模,在前一层的节点嵌入和边嵌入之间进行信息传播。这种设计使不再需要dual-FFN模块,因此提高了效率。

用于图表示学习的Graph Propagation Transformer (GPTrans)

1:图信息传播的三种方式示意图。圆形和黑色线条表示节点和边缘,绿色和粉色立方体表示节点嵌入和边缘嵌入。GPTrans通过在提出的图传播注意(GPA)模块中显式建模三种信息传播方式来实现更好的图表示学习,包括(a)节点到节点,(b)节点到边缘和(c)边缘到节点

2 模型

用于图表示学习的Graph Propagation Transformer (GPTrans)

图2:GPTrans的总体架构。包含一个图嵌入层,L个变压器块和一个头。图嵌入层将图数据转换为节点嵌入和边嵌入,作为变压器块的输入。每个变压器块包括一个图传播注意(GPA)和一个前馈网络(FFN)。Head模块中包含两个全连接层用于各种图任务的嵌入。

2.1
Graph Embedding

以单个图作为输入,首先给图增加一个虚拟节点来表征图级特征信息;其次,对于节点嵌入,将节点属性和节点度(入度和出度)的统计量三方面的信息相加得到节点嵌入;以有向图为例,可表示为如下公式:

用于图表示学习的Graph Propagation Transformer (GPTrans)

对于边的嵌入,Transformer的优势是它的全体接受域,但带来的问题就是模型必须显式的编码位置信息或位置的相互依赖性。对于图而言节点不是顺序排列的,为了编码图的空间信息,使用节点间的最短路径(SPD)的距离作为位置信息与边特征融合,如果两节点之间不可达则设置一个特殊值-1

用于图表示学习的Graph Propagation Transformer (GPTrans)

2.2
Graph Propagation Attention

用于图表示学习的Graph Propagation Transformer (GPTrans)

3:GPA示意图。显式地为节点嵌入和边嵌入之间的信息传播构建了三条路径,包括(a)节点到节点,(b)节点到边和(c)边到节点。

Node-to-Node

使用全局的自注意力来建模点到点的信息传递使用参数矩阵WQWKWV将节点嵌入xnode投影到查询、键和值上:

用于图表示学习的Graph Propagation Transformer (GPTrans)

通过一个可学习矩阵将Edge Embedding映射为注意力偏执,与经典Transformer结构中的position
encoding
类似,这里将边嵌入中的节点相对位置编码映射为偏执通过影响注意力系数的方式来控制对各节点特征的聚合。注意力偏执公式如下:   

用于图表示学习的Graph Propagation Transformer (GPTrans)

然后,将ϕ添加到Product&Scale的注意力映射中,并计算出节点嵌入x’。由于ϕ是通过可学习矩阵从高维边缘嵌入投影出来的,因此注意图具有更灵活的模式来聚合节点特征

用于图表示学习的Graph Propagation Transformer (GPTrans)

Node-to-Edge

为了将节点传播到边,额外使用了注意力图A,A捕获了节点嵌入之间的相似性,因此,考虑到局部连接和全局连接,将A加上softmax置信度,并通过可学习矩阵将其维度扩展到到与相同。

用于图表示学习的Graph Propagation Transformer (GPTrans)

Edge-to-Node考虑到计算效率,,作者将刚生成的xedge进行softmax并与自身进行逐元积计算,公式如下:用于图表示学习的Graph Propagation Transformer (GPTrans) 因为xedge相当于一个立方体,表明任意节点间都有边级的信息不管是否真实存在一路径或直连的边,在第1维度进行相加,相当于把这所有的边级信息都汇聚到各个节点上,实现了边到节点的信息传递。FC用来进行维度对齐;最后将这两种类型的节点嵌入相加并使用一个可学习矩阵Wo进行融合:

用于图表示学习的Graph Propagation Transformer (GPTrans)

整个过程可以实现通过一次self-attention计算多种类型信息的汇聚,显著提升了模型效率。整体GPTrans模型的可以表示为:

用于图表示学习的Graph Propagation Transformer (GPTrans)

用于图表示学习的Graph Propagation Transformer (GPTrans)

3 实验

3.1
baseline

数据集为PCQM4M PCQM4Mv2MolHIVMolPCBAZINC,并设置5种参数规模。首先在OGB大规模的两个数据集PCQM4MPCQM4Mv2上将GPTrans与基于Transformer和非Transformer的方法进行对比,如表1所示;评价指标为平均绝对误差(MAE)

用于图表示学习的Graph Propagation Transformer (GPTrans)

用于图表示学习的Graph Propagation Transformer (GPTrans)

1OGB大规模挑战中PCQM4MPCQM4Mv2验证集和测试集的结果,评价指标为MAE

进一步以PCQM4Mv2预训练的权值作为初始化,在OGB分子数据集MolPCBAMolHIV上对模型进行微调,验证GPTrans的迁移学习能力。所有实验用不同的随机种子进行了五次,取结果的平均值和标准差,如表23所示。在ZINC子集上进行从头训练,如表4所示,与基线对比得到一个非常好的MAE结果。上述结果均表明GPTrans在图级任务上表现良好。

用于图表示学习的Graph Propagation Transformer (GPTrans)

表2:在数据集MolPCBA上的结果。†表示进行了预训练。评价指标为AP。

用于图表示学习的Graph Propagation Transformer (GPTrans)

表3:在数据集MolHIV上的结果。†表示进行了预训练。评价指标为AUC,越高越好。

用于图表示学习的Graph Propagation Transformer (GPTrans)

表4:图回归(ZINC)、节点分类(PATTERN和CLUSTER)和边分类(TSP)任务四个基准测试数据集的结果。指标旁边的箭头表示越高或越低越好。“-”表示结果不可用。

由表4可以看出GPTrans-NanoPATTERNCLUSTER数据集上的准确率分别为86.731±0.085%78.069±0.154%。这些结果在很大程度上优于许多卷积/消息传递图神经网络,表明所提出的GPTrans可以作为传统GCNs的替代方案,用于节点级任务。在边分类的性能上,GPTrans在很大程度上优于Graphormer并与EGT相当,表明模型在边级任务上也具有很大竞争力。

3.2 消融实验

FLOPs是用一个有20个节点的图来计算的。作者在graphormer-s的基础上构建了100
epoch
baseline,并通过逐步引入GPA模块将其在PCQM4Mv2数据集上的验证MAE0.0928降低到0.0854。此外,作者发现在参数数量相似的情况下,更深的模型优于更宽的模型。

用于图表示学习的Graph Propagation Transformer (GPTrans)

5:GPTrans的消融研究

4 总结

本文利用GPTrans进行图表示学习,通过在Transformer-block中构建自注意力机制,探索图中节点和边之间的消息传递。特别是在GPTrans中,作者提出了一种Graph
Propagation Attention (GPA)
机制,以节点到节点、节点到边和边到节点三种方式显式地在节点和边之间进行消息传递,提高了图结构数据在Transfomer架构下的表征能力。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2023 年 10 月
 1
2345678
9101112131415
16171819202122
23242526272829
3031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026 Jay 2025-12-22 09...
面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25 鹭羽 2025-12-13 22:37...
钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议 梦晨 2025-12-11 15:33:51 来源:量子位 A...
商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1 十三 2025-12-15 14:13:14 ...
跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026 一水 2025-1...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
预见未来:96位前沿先锋超万字核心观点总结,抢抓未来产业新高地

预见未来:96位前沿先锋超万字核心观点总结,抢抓未来产业新高地

预见未来:96位前沿先锋超万字核心观点总结,抢抓未来产业新高地 henry 2025-12-11 10:27:...
Meta公开抄阿里Qwen作业,还闭源了…

Meta公开抄阿里Qwen作业,还闭源了…

Meta公开抄阿里Qwen作业,还闭源了… Jay 2025-12-11 11:48:25 来源:量子位 Ja...
MEET2026挤爆了,AI圈今年最该听的20+场演讲&对谈都在这

MEET2026挤爆了,AI圈今年最该听的20+场演讲&对谈都在这

MEET2026挤爆了,AI圈今年最该听的20+场演讲&对谈都在这 西风 2025-12-11 15:...
钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议 梦晨 2025-12-11 15:33:51 来源:量子位 A...