Skip to content

G2GNN

Imbalanced Graph Classification via Graph-of-Graph Neural Networks

  1. motivation: 目前的样本不平衡问题的解决集中于节点分类的场景,而图分类的十分少,因此作者通过全局GoG和局部增强的方法实现图级别的不平衡问题的解决。

  2. 主要增强方法: 作者在局部增强中采用节点特征置零的增强手段,实际上也是一种 node dropping 的方法 G2GNN

  3. global 增强: 本质上是通过全局传播从相邻图中为少数类图获得了额外的标签信息
    • 通过任意一种 GNN encoder (作者采用GIN)得到图级别的表征
    • 之后为每个图寻找KNN近邻,并构造GoG(Graph of Graph):本质上将图视为节点,为他们根据拓扑相似性 \(S = \phi(G_i, G_j)\) 建立边的联系,其中 \(\phi\) 为核函数,作者采用了最短路径核函数,从而构造了一个KNN GoG
    • 传播聚合邻居图信息:在得到以图为节点的GoG,通过GCN进行节点间信息传播聚合邻居图信息
  4. local 增强: 对于少数图进行过采样后,假设一个图过采样为 \(T\) 个图,对这 \(T\) 个图采取下列增强手段之一得到 \(T\) 个增强图,加强对少数图的泛化能力

    • edge removing: 对于每个图,随机删除一组子边
    • node feature masking:对于每个图,随机将某些节点的 整个 特征置零(作者发现全部置零比部分特征维度置零带来的随机增强获得的性能更好)
    • self-consistency regularization:作者采用了自一致性正则化,优化每个图的增强图之间的预测的一致性。首先用表征的预测分布的平均值得到中心表征 \(\hat{P}\),然后按每一维度每个增强图锐化 \(\bar{P}_{ij}=(\hat{P}_{ij}^\tau)/\sum_{c=1}^C(\hat{P}_{ic})^\tau\)

      \[ \mathcal{L}_i^{self} = \frac{1}{T} \sum_{t = 1} ^ T\parallel\bar{P}_i - \tilde{P}_i^t\parallel_2 \]
  5. 总体损失:loss

  6. 方法评价: 通过全局和局部两个角度加强了少数样本的过采样后模型的泛化能力,解决了不平衡样本的图分类问题,后续研究可以通过依概率混合的方式进行 edge removing 或者 feature masking 的数据增强实验来探究拓扑级和特征级的影响程度