GRAND¶
Graph Random Neural Networks for Semi-Supervised Learning on Graphs
- 
motivation: 为了解决 GNNs 的过平滑问题,由于节点高度依赖于邻居从而易受攻击的弱鲁棒性问题,以及过拟合,难泛化的问题,作者提出了GRAND(Graph Random Neural Networks),从数据增强和一致性正则化的角度来解决上述问题 
- 
主要数据增强方法:随机将节点特征置零,以达到 Node Dropping 的效果 - 
对图的节点特征 \(\mathbf{X}\) 进行 \(S\) 次增强,主要方法为 DropNode:首先对于每个节点,在伯努利分布中采样,之后应用到对应的节点特征上,即将某些节点的特征置零得到 \(\tilde{\mathbf{X}}\) ,即实现了节点的特征去除,之后进行 \(K\) 阶的随机传播,达到结合邻居信息的效果 \(\overline{\mathbf{X}} = (\sum_{k= 0}^K \frac{1}{K+1}\hat{\mathbf{A}}^k) \tilde{X}\) 
- 
对于增强后的 \(S\) 个节点特征 \(\overline{\mathbf{X}}\) ,输入到模型中进行训练,可以是MLP,也可以是GNNs,得到 \(S\) 的结果 \(\mathbf{Z}\) 
- 
优化目标: - 
consistency regularization loss: 取一个类似于平均结结果标签作为unlabelled data的标签,优化让 \(S\) 个结果尽可能接近这个结果 \[ \mathcal{L}_{\text {con }}=\frac{1}{S} \sum_{s=1}^{S} \sum_{i=0}^{n-1}\left\|\overline{\mathbf{Z}}_{i}^{\prime}-\widetilde{\mathbf{Z}}_{i}^{(s)}\right\|_{2}^{2} \]
- 
supervised loss:对于labeled节点正常求完loss之后取S个的平均 \[ \mathcal{L}_{\text {sup }}=-\frac{1}{S} \sum_{s=1}^{S} \sum_{i=0}^{m-1} \mathbf{Y}_{i}^{\top} \log \widetilde{\mathbf{Z}}_{i}^{(s)} \]
- 
总体损失:\(\mathcal{L} = \mathcal{L}_{\text {sup }} + \lambda \mathcal{L}_{\text {con }}\) 
 
- 
 
- 
- 
优点:加入随机传播和一致性正则化误差后,提升了模型的泛化能力和鲁棒性,缓解了过平滑问题 
- 
缺点:可扩展性较差,由于依赖于复杂的数据增强手段,对于大型图计算难度大