GRAND¶
Graph Random Neural Networks for Semi-Supervised Learning on Graphs
-
motivation: 为了解决 GNNs 的过平滑问题,由于节点高度依赖于邻居从而易受攻击的弱鲁棒性问题,以及过拟合,难泛化的问题,作者提出了GRAND(Graph Random Neural Networks),从数据增强和一致性正则化的角度来解决上述问题
-
主要数据增强方法:随机将节点特征置零,以达到 Node Dropping 的效果
-
对图的节点特征 \(\mathbf{X}\) 进行 \(S\) 次增强,主要方法为 DropNode:首先对于每个节点,在伯努利分布中采样,之后应用到对应的节点特征上,即将某些节点的特征置零得到 \(\tilde{\mathbf{X}}\) ,即实现了节点的特征去除,之后进行 \(K\) 阶的随机传播,达到结合邻居信息的效果 \(\overline{\mathbf{X}} = (\sum_{k= 0}^K \frac{1}{K+1}\hat{\mathbf{A}}^k) \tilde{X}\)
-
对于增强后的 \(S\) 个节点特征 \(\overline{\mathbf{X}}\) ,输入到模型中进行训练,可以是MLP,也可以是GNNs,得到 \(S\) 的结果 \(\mathbf{Z}\)
-
优化目标:
-
consistency regularization loss: 取一个类似于平均结结果标签作为unlabelled data的标签,优化让 \(S\) 个结果尽可能接近这个结果
\[ \mathcal{L}_{\text {con }}=\frac{1}{S} \sum_{s=1}^{S} \sum_{i=0}^{n-1}\left\|\overline{\mathbf{Z}}_{i}^{\prime}-\widetilde{\mathbf{Z}}_{i}^{(s)}\right\|_{2}^{2} \] -
supervised loss:对于labeled节点正常求完loss之后取S个的平均
\[ \mathcal{L}_{\text {sup }}=-\frac{1}{S} \sum_{s=1}^{S} \sum_{i=0}^{m-1} \mathbf{Y}_{i}^{\top} \log \widetilde{\mathbf{Z}}_{i}^{(s)} \] -
总体损失:\(\mathcal{L} = \mathcal{L}_{\text {sup }} + \lambda \mathcal{L}_{\text {con }}\)
-
-
-
优点:加入随机传播和一致性正则化误差后,提升了模型的泛化能力和鲁棒性,缓解了过平滑问题
-
缺点:可扩展性较差,由于依赖于复杂的数据增强手段,对于大型图计算难度大