Skip to content

GSAT

Interpretable and Generalizable Graph Learning via Stochastic Attention Mechanism

  1. motivation: 以前的图解释主要集中于事后(post-hoc)解释预训练模型,这种方法通常无法提供稳定的解释,且可能提取出与任务虚假相关的特征,因此作者借助信息瓶颈原理,将随机性注入注意力权重,以阻止来自与任务无关的图组件的信息,同时学习随机性减少的注意力以选择与任务相关的子图进行解释,从而减少与任务虚假相关的特征

  2. 主要增强方法: 删除边以限制信息 GSAT

    • 输入到一个 GNN encoder 得到edge embedding ,后从Bernoulli分布中学习随机注意力 \(\alpha\) 来决定下一步删除的边;随机删边:得到扰动后的图 \(G_S\) ,这样注入随机性来限制信息,通过 \(G_S\) 来提供解释

    • 输入到第一步的GNN中得到graph embedding之后输入到预测器得到最终结果

  3. 方法评价: GSAT 消除了虚假相关性的消息提升了模型的泛化性,提供了更稳定的图解释。注意,原文更侧重 图解释 领域,而此处只提取了数据增强(即edge removal的操作)的重要细节。