有没有近几年的GNN顶刊论文推荐
时间: 2025-06-17 18:46:20 浏览: 31
### 近年来 GNN 图神经网络顶刊论文推荐
以下是近年来关于图神经网络(Graph Neural Network, GNN)领域的一些顶级期刊和会议中的重要论文推荐:
#### 1. **Graph Convolutional Networks (GCNs)**
- Kipf 和 Welling 提出的《Semi-Supervised Classification with Graph Convolutional Networks》是一篇经典之作,它引入了一种基于谱图理论的一阶近似方法来简化计算复杂度[^3]。这篇论文奠定了 GCN 的基础,并被广泛应用于节点分类任务。
- Wu 等人的综述文章《A Comprehensive Survey on Graph Neural Networks》全面总结了 GNN 的发展历史及其应用,适合初学者快速了解该领域的全貌。
#### 2. **Graph Attention Networks (GATs)**
- Veličković 等人在 ICML 2018 上发表的《Graph Attention Networks》提出了注意力机制在图结构上的实现方式,使得模型能够自适应地分配不同邻居的重要性权重。这种方法显著提高了性能,在多个基准测试上表现优异。
#### 3. **Spatial-Temporal Graph Neural Networks (ST-GCNs)**
- Yan 等人提出的 ST-GCN 是一种专门针对时空序列建模设计的方法,《Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition》展示了其在动作识别方面的强大能力[^1]。这类研究对于视频分析、人体姿态估计等领域具有重要意义。
#### 4. **Message Passing Neural Networks (MPNNs)**
- Gilmer 等人在 ICML 2017 发表的文章《Neural Message Passing for Quantum Chemistry》定义了一个统一的消息传递框架 MPNN,涵盖了多种现有 GNN 变体的工作原理。此工作为后续许多具体应用场景提供了理论支持和技术指导。
#### 5. **Higher-order Information Aggregation**
- Hamilton 等人于 NIPS 2017 提交的作品《Inductive Representation Learning on Large Graphs》,即 Inductiv eGN N ,探讨如何利用高阶邻域信息来进行归纳表示学习,解决了传统方法仅限于训练集内的局限性问题[^2]。
#### 6. **Scalable Approaches to Training Large-scale GNNS**
- Chen 等人在 WWW 2018 中发布的 Cluster-GCN 方法——《Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Networks》专注于大规模图数据处理效率提升方面做出了贡献;而 Ying 等则通过 GraphSAINT 技术进一步优化采样策略以降低内存消耗并加速收敛速度。
---
```python
import torch
from torch_geometric.nn import GCNConv
class SimpleGCN(torch.nn.Module):
def __init__(self, input_dim, hidden_dim, output_dim):
super(SimpleGCN, self).__init__()
阅读全文
相关推荐

















