查看: 93|回复: 2

图神经网络的发展历程,截止2023年

[复制链接]

3

主题

5

帖子

11

积分

新手上路

Rank: 1

积分
11
发表于 2023-4-19 15:55:00 | 显示全部楼层 |阅读模式

  • 图卷积神经网络(Graph Convolutional Networks,GCN):2017年,Kipf 和 Welling提出了基于局部连接和卷积操作的图卷积神经网络,可以用于处理节点分类和图分类问题。
  • 图注意力网络(Graph Attention Networks,GAT):2018年,Petar Veličković等人提出了图注意力网络,它采用了注意力机制来计算节点之间的相似度,可以学习每个节点在不同层次上的不同重要性。
  • 图池化(Graph Pooling):2018年,Zhang等人提出了一种基于节点重要性的图池化方法,可以减少图的大小并保留重要的节点。
  • GraphSAGE:2018年,Hamilton等人提出了GraphSAGE,它使用类似于Word2Vec的算法,通过聚合节点邻居的特征来生成节点表征。
  • GraphGAN:2018年,Jiaxuan You等人提出了GraphGAN,它结合了图卷积神经网络和生成对抗网络(GAN),可以用于生成具有特定属性的图。
  • Graph Convolutional Policy Network(GCPN):2018年,Wang等人提出了GCPN,它可以学习到从图状态到动作的映射,从而用于图上的强化学习。
  • Graph Isomorphism Network(GIN):2018年,Xu等人提出了GIN,它可以处理节点分类和图分类问题,并且具有对置换等价性的不变性。
  • Deep Graph Infomax(DGI):2018年,Veličković等人提出了DGI,它通过最大化节点表征和图表征之间的相互信息来学习图表征。
  • Signed Graph Convolutional Network(SGCN):2019年,Wu等人提出了SGCN,它可以处理有向图和带有正负权重的图,并且可以保留不同类型的节点和边信息。
  • Heterogeneous Graph Attention Network(HAN):2019年,Wang等人提出了HAN,它可以处理异构图,即具有不同类型节点和边的图,从而可以应用于推荐系统和知识图谱等领域。

  • Graph Transformer Network(GTN):2020年,Gao等人提出了GTN,它采用了Transformer模型中的自注意力机制,可以处理大规模图,同时具有高效性和可扩展性。
  • Relational Graph Convolutional Network(RGCN):2020年,Schlichtkrull等人提出了RGCN,它可以处理包含复杂关系的图,如实体关系图和知识图谱等,其基于边的卷积可以处理不同类型和方向的边。
  • Geometric Deep Learning on Graphs and Manifolds(GDLM):2020年,Bronstein等人提出了GDLM,它提供了一种框架,用于在图和流形上进行深度学习。它可以处理非欧几里德空间和不规则结构的数据,如点云数据和网络数据。
  • Graph Neural Tangent Kernel(GNTK):2020年,Xu等人提出了GNTK,它提供了一种新的方式来理解图卷积神经网络,即将其视为神经切比雪夫核的近似。该方法可以解释图神经网络的工作原理,并为其性能提供了理论保证。
  • Deep Graph Random Walk(DGRW):2020年,Li等人提出了DGRW,它将图卷积神经网络和随机游走相结合,从而可以生成图上的隐式表征。该方法可以应用于图的分类、聚类和生成等任务。
  • Graph Contrastive Learning(GCL):2021年,You等人提出了GCL,它通过最大化图中正负节点对之间的相似性来学习节点和图的表征。该方法可以在没有标签的情况下进行无监督学习,从而可以应用于大规模图数据的处理。
  • Graph Representation Learning with Structural Identity(GRoLSI):2021年,Chen等人提出了GRoLSI,它采用结构标识符来表示图的拓扑结构,从而可以提高图表征的稳定性和可解释性。
  • GIN-ICLR:2021年,Li等人提出了GINv2,其在GIN(Graph Isomorphism Network)基础上引入了图诱导嵌入(Graph-Induced Embedding)技术,进一步提高了模型性能。
  • Graph Multi-Modal Transformer(GMT):2021年,Zhang等人提出了GMT,其采用多模态的方式处理异构图,从而可以融合不同类型的节点和边信息。
  • SimGNN:2021年,Bai等人提出了SimGNN,其采用图形相似性来学习图的表征,可以在没有标签的情况下进行无监督学习。
  • Hybrid and Continual Learning in Graph Neural Networks(HCo-GNN):2021年,Luo等人提出了HCo-GNN,其可以处理不同类型的节点和边,并支持混合学习和连续学习,从而可以应用于动态图的处理。
  • Generalizing Graph Convolutional Neural Networks Outside the Homophily Principle(GCN-PR):2021年,Gao等人提出了GCN-PR,其在传统的GCN模型中引入了图形相似性来解决同质性偏差问题,可以更好地适应异质图。
  • Improved Training of Graph Convolutional Networks with Variance Reduction(VR-GCN):2021年,Yang等人提出了VR-GCN,其引入了方差减少技术来加速训练过程,同时提高了模型性能。
  • Hierarchical Graph Convolutional Networks for Semi-Supervised Node Classification(HGCN):2021年,Liu等人提出了HGCN,其采用分层图卷积来提高节点分类的准确性,并支持半监督学习。

  • Dynamic Graph Convolutional Neural Networks(DGCNN):2022年,Xu等人提出了DGCNN,其可以处理动态图,并在节点和边的时变性建模方面具有较好的性能。
  • Adversarial Attack and Defense in Graph Neural Networks: A Survey and Taxonomy(GNN攻防):2022年,Zhao等人发表了一篇综述文章,系统地总结了图神经网络中的对抗攻击和防御方法。
  • Graph Guided Few-shot Learning with Transformers(GGFSL):2022年,Zhou等人提出了GGFSL,其采用图引导的方式来辅助少样本学习,可以更好地利用图中的信息。
  • Graph Neural Networks with Adaptive Neighborhood Attention(ANA-GNN):2022年,Zhang等人提出了ANA-GNN,其引入了自适应邻域注意力机制来加强节点的表征能力,同时提高了模型的可解释性。
  • Strongly Connected Graph Neural Networks with Non-overlapping Convolution(SCNN):2022年,Ma等人提出了SCNN,其采用非重叠卷积来提高模型的表示能力,同时支持图分类和节点分类任务。
回复

使用道具 举报

0

主题

3

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-4-19 15:55:07 | 显示全部楼层
666
回复

使用道具 举报

0

主题

4

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-4-19 15:55:30 | 显示全部楼层
有文献引用那就更好了[爱]
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|多点娱乐

GMT+8, 2025-10-17 05:29 , Processed in 0.090977 second(s), 22 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表