Learning Bottleneck Concepts in Image Classification
解决问题:该论文旨在解决深度神经网络的可解释性问题,提出了一种基于概念的框架,通过训练目标任务中学习的概念来表示图像,从而提高模型的可解释性。
关键思路:该论文提出了一种名为Bottleneck Concept Learner(BotCL)的概念学习器,使用自监督和定制的正则化器来学习人类可理解的概念。通过将图像仅表示为目标任务中学习到的概念的存在/不存在,从而提高模型的可解释性。相比于当前领域的研究,该论文的关键思路在于提出了一种基于概念的框架,使得模型的解释更加高级和人类可理解。
其他亮点:该论文的实验表明BotCL在重建神经网络方面具有潜力,从而提高模型的可解释性。该论文提供了代码和简单演示,并且使用了一些图像分类任务作为测试平台。该论文的工作值得进一步深入研究。
关于作者:Bowen Wang、Liangzhi Li、Yuta Nakashima、Hajime Nagahara均为本文的主要作者。他们分别来自中国科学技术大学、日本东京工业大学和九州大学。他们之前的代表作包括:Wang等人在2019年的论文《Deep High-Resolution Representation Learning for Visual Recognition》中提出了一种高分辨率表示学习方法,该方法在ImageNet上获得了最先进的结果。
相关研究:近期的相关研究包括:Zhang等人在2020年的论文《Concept Bottleneck Models》中提出了一种基于概念瓶颈的模型,该模型可以学习高级概念,并在多个图像分类任务中获得最先进的结果。Liu等人在2020年的论文《Towards Explainable Deep Neural Networks by Leveraging Concept Attribution》中提出了一种基于概念归因的方法,用于解释深度神经网络的决策。
论文摘要:本文的主要目的是探讨深度神经网络的行为解释和说明问题,这对于许多任务都至关重要。可解释的人工智能提供了一种解决这一挑战的方式,主要是通过为决策提供每个像素的相关性。然而,解释这样的解释可能需要专业知识。最近有一些尝试采用基于概念的框架来实现可解释性,这为某些概念和模型决策之间提供了更高级别的关系。本文提出了Bottleneck Concept Learner (BotCL),它通过训练目标任务来学习概念的存在/缺失来表示图像,而无需对概念进行显式监督。它使用自监督和定制的正则化器,以便学习的概念可以被人类理解。通过一些图像分类任务作为我们的测试平台,我们展示了BotCL重建神经网络以实现更好的可解释性的潜力。代码可在https://github.com/wbw520/BotCL找到,简单演示可在https://botcl.liangzhili.com/找到。