返回

RelEx

RelEx结合代理和扰动的思想,研究节点分类模型的可解释性。

  • 论文标题:RelEx: A Model-Agnostic Relational Model Explainer
  • 论文地址:https://arxiv.org/pdf/2006.00305.pdf

实验

用GNNS作为黑盒模型的合成关系数据集的实验

我们构造了两种节点分类数据集:i)树网格,其中我们使用固定高度的二叉树作为基本结构,然后将多个网格结构连接到树上,通过在网格中的节点(称为网格节点)和树(树节点)之间随机添加噪声链接来连接多个网格结构;ii)树BA,我们再次使用二叉树作为基本结构(树节点),然后通过以链接的形式随机添加噪声来将多个Barabasi Albert(BA)结构(BA节点)连接到树上。预测问题涉及使用节点的邻域拓扑结构预测每个节点所属的正确类别。

我们分别在两个数据集上训练一个3层的GCN作为黑盒。我们在表1中给出了树网格数据集的定量结果,在表2中给出了树BA数据集的定量结果。由于树网格数据集和树BA数据集都是综合生成的,因此我们知道基本事实正确的原因结构,并用它来计算学习到的关系解释与正确原因的偏差。从AUC-ROC和出轨结果可以看出,Relex Gumbel在这两个指标上都有最好的表现。我们还注意到,显著图无法像其他模型那样执行,因为前者是唯一不是专门为关系模型量身定做的模型。这进一步确定了为传统IID模型设计的解释器不能无缝地用于关系模型,而我们需要专门为关系模型设计的解释器。

用HL-MRFS作为黑盒模型的合成关系数据集的实验

我们构造了一个三级图数据集,树-网格-BA。我们生成多个树、网格和Barabasi Albert图,并在它们之间随机添加噪声链接来构建这个图数据集。对于HL-MRF模型,我们设计了表3中的集合一阶逻辑规则。为了训练PSL模型,我们随机选择一半的节点作为观察节点,作为种子节点。

由于GNN-Explainer和Saliency Map需要访问梯度,因此它们不能应用于黑盒HL-MRF模型。表4显示了定量结果,其中我们可以看到RelExSigmoid比RelExGumbel获得了更好的结果,因为HL-MRF模型为感兴趣节点周围的链接分配了不同的连续重要性值,这些值由学习的规则权重捕获。因此,RelExSigmoid成功地获知了每个链路的相应重要性值。这显示了我们的两种方法RelExSigmoid和RelExGumbel在两种不同类型的关系模型上的能力。图2分别显示了树节点、网格节点和BA节点的示例说明。我们观察到,定性结果与RelExSigmoid的定量结果是一致的,得到了更接近实际正确原因的关系解释。我们还可以看到,RelExSigmoid模型能够收集到解释预测的核心拓扑结构。

以GNNS为黑盒模型的分子数据集实验

为了证明我们的方法在真实数据集上的适用性,我们在著名的基准图分类数据集MUTAG[25]上进行了实验。它由188个具有致突变性的芳香族和杂芳族硝基化合物组成,含有碳、氮、氧等7种不同的原子。我们已有的领域知识是碳原子具有环结构,在化学上代表致突变的芳香族化合物;氮原子和氧原子结合形成-NO2结构,氮原子也可以与其他碳原子以五方或六方结构存在。

表5显示了关于不忠的比较结果,其中我们看到RelExGumbeler和GNN-Explainer都获得了类似的最佳结果。我们演示了图3和图4中模型的定性性能。在所有图中,黄色节点是我们感兴趣的节点。为了从软的重要值来绘制解释,而不是寻找最佳阈值,我们选择使用边缘的颜色来捕捉边缘的重要性,其中较深的颜色表示边缘具有较高的重要性。我们可以看到,GNN-Explainer和RelExSigmoid的解释是以这种方式绘制的,因为它们学习关系解释中的边的软重要度值。在图3中,我们观察到,RelExGumbel学习到的碳节点的解释找到了正确的六角环结构,RelExSigmoid学习到的解释包含两个连接的六角环,这两个环都捕获了与碳节点对应的核心关系结构(六角环)。图4显示了对一个氮节点的解释;除了关系锚之外,所有的解释器都能够识别正确的-NO2拓扑结构。

我们为每个感兴趣的节点训练不同的解释。图5给出了从基于RelEx-Gumbeler的解释器获取的两个示例解释,其中黄色节点是我们感兴趣的节点。图5(A)显示了分子,图5(B)和5(C)对同一节点给出了两种不同的解释。在图5(A)中,我们看到感兴趣的节点是两个环形结构的一部分,其中一个是五边形,另一个是六边形。第一种解释学习了一个五边形的环结构,而不同的第二种解释发现了两种环结构。虽然这两种解释都是正确的,但第二种解释从域的角度来看更有意义,因为它收集了节点所属的两个核心关系结构。同样,在图5(D)中,尽管两种解释都能够了解到负责预测的核心六边形结构,但我们看到图5(E)中的第一种解释包含一些噪声,而图5(F)中的第二种不同解释排除了噪声,更可取。因此,我们的方法学习不同解释的能力对于学习多个“正确”的解释很方便,其中一些从领域的角度来看更有意义。

总结

在这项工作中,我们开发了一个与模型无关的关系解释器Relex,它能够解释任何黑盒关系模型。通过严格的实验和与最先进的解释器的比较,我们展示了RelExin在两个合成和一个真实图形数据集上解释两个不同的黑盒关系模型的定量和定性能力,GNN代表深度图神经网络模型,HL-MRF代表统计关系模型。RelEX学习不同解释的能力进一步增强了它在解释特定领域预测方面的实用价值和适用性。

Built with Hugo
Theme Stack designed by Jimmy