Skip to content

G-Mixup

G-Mixup: Graph Data Augmentation for Graph Classification

  1. Motivation:作者希望把mixup迁移到图上。但是为了解决由于图的不对齐,非欧等性质,导致无法直接mixup的问题,作者采用了对每一类图生成出graphon,然后对graphon进行mixup,得到新的合成图的方法实现了图数据增强

  2. 主要增强方法: 在 graphon 的视角进行图采样:GMixup

    graphon: 是一个在数学和统计学中用于描述大规模图(特别是稠密图)的极限对象。它通常用于图序列的收敛性研究

  3. 建模过程:首先对每一类图采用step function都生成各自的graphon,之后对graphon进行mixup,之后对mixup后的graphon进行随机采样得到新的合成图

  4. graphon的生成:如下面插值公式所示,\(W\) 是step function,\(W\) 生成对应类的 graphon,之后mixup(就是插值)

    \[ W_I = \lambda W_G + (1 - \lambda) W_H\in\mathbb{R}^{K\times K} \]
  5. 合成图的生成:第一步按二项分布取k个点,第二部从由step function决定的bernoulli分布里产生邻接矩阵,从而得到G,K是k个点,W是对应的graphon

    \[ \begin{array}{c} u_{1}, \ldots, u_{K} \stackrel{\text { iid }}{\sim} \operatorname{Unif}_{[0,1]}, \mathbb{G}(K, W)_{i j} \stackrel{\text { iid }}{\sim} \operatorname{Bern}\left(W\left(u_{i}, u_{j}\right)\right) \\ \forall i, j \in[K] \end{array} \]
  6. 实验

  7. 验证G-Mixup提升了GNN在不同数据集的表现和泛化能力:对比不同GNN在不同数据集下用别的方法数据增强下的分类准确率

  8. 验证G-Mixup提高GNN鲁棒性

    • 标签的鲁棒:不同程度破坏标签形成噪声,看模型的鲁棒性对比

    • 拓扑的鲁棒:不同程度增删边,看模型的鲁棒性对比