cvpr 2019 | 基于可解释性以及细粒度的可视化解释卷积神经网络 -凯发k8官方网
作者丨张彪
学校丨北京交通大学硕士生
研究方向丨卷积神经网络的内部可视化(可解释性)
卷积神经网络(cnn)已经被证明在许多视觉基准测试上产生了最先进的结果,尽管如此,cnn 的黑盒特性使得它在安全度要求高的领域未能被广泛应用。本文基于上述问题,其主要工作是探究网络内部的运行机制,以进行细粒度的解释网络模型。同时这篇文章的一个贡献是提出了一种新的对抗防御技术,它选择性地过滤优化中的梯度,使得解释性更为合理。
基于扰动的视觉解释
扰动的视觉可解释性可以被定义为:a) 保留解释:为了保存模型的原始输出,图像中必须保留的最小区域。b) 删除解释:为了改变模型的原始输出,图像中必须删除的最小区域。
这里假定一个 cnn 可以根据给出的输入图像得到。给定一个输入图像 x,通过移除与目标类相关或不相关的像素点以得到解释图,由于无法在不替换信息的情况下删除信息,而且整个图像的生成过程是透明的,因此必须使用近似删除操作符,一种常见的做法是通过 ф 操作来计算图像 x 和参考图像之间的加权平均:
其中,参考图像 r 的常见选择是常数(如 0)、原始图像的模糊版本、高斯噪声或者生成模型的采样引用。本文使用 0 值图像作为参考图像。这个操作将会产生可视化解释,因为不相关的像素被置为 0 而没有其他像素结构来替代。操作过程如下图所示。相对于模糊版本的 r,0 值图像携带的信息少,将会导致模型预测结果具有较高的熵。此外需要一个相似性度量矩阵来度量对于目标类 ,生成的解释图像的模型输出 和原始图像的模型输出 之间的一致性。如果解释图保存了目标类的输出,相似性应该小;如果解释图计划明显的降低目标类的概率,相似性应该大。典型的度量选择为把类别 作为硬目标的交叉熵或者目标类别 的负的 softmax 分数。
当 r=0 时,保留解释可以被定义为:
同时可以定义删除解释:
上图为对 vgg 使用 deletion / preservation game 进行可视化的结果。a) 为输入图像。b) 执行公式 (2)(3) 得到的结果,删除掩码中的颜色与图像中的颜色互补。c) 通过优化得到的可解释性结果。d) 在 deletion game 中真实颜色的互补模板。e) 强调 deletion game 的重要证据的说明。f) 平均掩码。
为了求解 (2) 和 (3),使用随机梯度下降以及初始解释图。在设个设置中,初始解释不包括任何类的证据,优化必须迭代地添加相关的或者不相关的,不支持类 的信息。本文的实验中,deletion game 产生了最细粒度的解释,与其他的实验相比,它通常需要最少的优化迭代,因为从开始,相对较少的掩码值被更改。
防御对抗证据
由于对抗方法和上述基于优化的视觉解释方法在计算上的相似性,因此在上述实验中必须保证解释是基于图像中存在的真实证据,而不是优化过程中引入的虚假对抗性证据。对于本文的 generation/repression game 尤其如此,因为它们的优化从开始,并迭代的增加信息。
如下图所示,在没有防御的情况下,可以把原始图像解释为 limousine,因此必须加上一些约束以防御对抗性证据,使其正确的解释为第二行所示情况。
本文提出一种新的对抗防御:cnn 中的一个神经元要想被解释图 激活,那么他必须能被原始图像 x 激活,这样就保证了解释图 是 x 的一个子集。在原来的优化中增加约束:
是网络中第 l 层的第 i 个神经元在非线性(如 relu、sigmoid)计算后的结果。为了求解满足 (4) 的优化问题,可以在网络中每个非线性计算之后增加一个额外的计算:
通过上述计算在反向传播梯度的过程中,产生的误差为:
上述的梯度裁剪法不增加超参数,在前向传递中保持模型的原始结构,同时支持细粒度解释。
使用 deletion game,我们计算了 googlenet 的平均解释掩码,并在上图中与最先进的方法进行了比较。我们的方法通过删除目标对象的重要像素来提供最细粒度的解释。尤其是解释 b)、f) 和 g) 较为粗糙,因此为了改变预测结果,它们显示的区域往往包含了不需要的删除的背景信息。
我们的方法 fgvis 突出显示大大部分像素形成了对象的边缘。这在其他方法中是看不到的。c) 和 d) 的解释与本文得到的结果最相似。然而,本文的掩码计算是为了直接产生解释图像,这些解释是可行的网络输入,因此是可验证的——删除突出显示的像素会改变网络的正确预测。这种说法对于用 c) 和 d) 方法计算的解释不一定成立。
本文最大的创新是提出了一种在图像空间中生成细粒度视觉解释的方法,使得 cnn 网络模型的解释性更为可靠。本文进一步的把解释图细化到图像的像素级,这极大的促进了深度学习在类如自动驾驶、智慧医疗中的应用。
[1] fong r c , vedaldi a . [ieee 2017 ieee international conference on computer vision (iccv) - venice (2017.10.22-2017.10.29)] 2017 ieee international conference on computer vision (iccv) - interpretable explanations of black boxes by meaningful perturbation[j]. 2017:3449-3457.
点击以下标题查看更多往期内容:
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。paperweekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
paperweekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
? 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名 学校/工作单位 学历/职位 研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• paperweekly 默认每篇文章都是首发,均会添加“原创”标志
? 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时凯发k8官方网的联系方式(微信或手机),以便我们在编辑发布时和作者沟通
?
现在,在「知乎」也能找到我们了
进入知乎凯发k8官方网首页搜索「paperweekly」
点击「关注」订阅我们的专栏吧
关于paperweekly
paperweekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 ai 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 paperweekly 的交流群里。
▽ 点击 | 阅读原文 | 下载论文
总结
以上是凯发k8官方网为你收集整理的cvpr 2019 | 基于可解释性以及细粒度的可视化解释卷积神经网络的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇:
- 下一篇: