DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

718次阅读
没有评论

点击下方卡片,关注「集智书童」公众号

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

最近主流的Masked知识蒸馏方法通过从其教师网络的特征映射中选择性地重建学生网络的Masked区域来实现。在这些方法中,Masked区域需要被正确选择,以便重建的特征能够编码足够的区分性和代表性,就像教师特征一样。然而,先前的Masked知识蒸馏方法只关注了空间Masked,导致重建的Masked区域偏向于空间重要性,而没有编码有信息量的通道线索。

在这项研究中,作者设计了一个双重Masked知识蒸馏(DMKD)框架,可以捕获全面的Masked特征重建的空间重要性和通道信息提示。具体来说,作者采用双重注意力机制来引导各自的Masked分支,从而导致重建的特征编码双重重要性。

此外,通过自适应权重策略来融合重建特征,以实现有效的特征蒸馏。作者在目标检测任务上的实验证明,在使用RetinaNet和级联Mask R-CNN分别作为教师网络时,借助DMKD,学生网络的性能提升了4.1%和4.3%,同时优于其他最先进的蒸馏方法。

1、简介

众所周知,知识蒸馏能够将复杂教师网络中学到的深层知识传递给轻量级的学生网络。早期的知识蒸馏算法主要关注网络的输出Head,代表性的方案包括基于logit的分类蒸馏和基于Head的检测蒸馏。最近,基于特征的蒸馏策略受到越来越多的关注,因为它具有良好的任务不可知的灵活性。特别是,特征蒸馏帮助学生网络模仿教师特征,增强了表征能力。

在目标检测中,已经开发了各种先进的特征蒸馏方法。具体来说,经典的FitNet在全局特征级别上执行了蒸馏。FGD被开发出来在统一框架内区分前景和背景的蒸馏。CWD简单地最小化了两个网络的通道概率图之间的Kullback-Leibler散度,蒸馏过程倾向于每个通道的最重要的区域。

在特征蒸馏方法中,最近的研究表明,学生模型最好首先从教师模型中重建重要特征,而不是跟随教师生成具有竞争力的表示。例如,MGD被提出来随机Masked学生网络特征图中的像素,通过一个简单的块生成教师模型的重建特征。AMD在学生网络的特征图上执行基于注意力的特征Masked,使得可以通过空间自适应特征Masked来识别特定区域的重要特征,而不是像以前的方法中的随机Masked。

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

尽管当前的Masked特征蒸馏方法有助于提高学生模型的性能,但上述方法中的选择性Masked区域仅考虑了空间重要性。例如,MGD执行随机特征Masked,不考虑位置,导致被重建的区域是无信息和语义不相关的。AMD在识别空间显著区域时使用了空间Masked,这在一定程度上减轻了这一限制,但仍然无法识别对于密集预测任务至关重要的信息通道。

而在这项研究中,作者尝试捕获空间重要区域和物体感知的通道信息,这两者都可以通过双重注意力机制获得。具体来说,图1中显示的双重Mask策略用于Masked特征重建,以全面描述重要的物体感知特征。

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

如图2所示,与仅捕获有辨别能力的局部特征(鸟的Head和身体)的MGD和AMD相比,作者的DMKD为改进的表示能力提供了更全面的物体特定编码。

2、本文方法

2.1. 预备知识

在详细介绍作者提出的方法之前,作者简要回顾基本的基于特征的蒸馏框架,其公式如下:

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

其中, 是从学生或教师网络生成的特征图。表示学生特征与可学习函数对齐的拟合误差和教师特征之间的拟合误差。

从上述公式可以看出,基本特征蒸馏模型要求学生原始特征尽可能接近教师的对应特征。从这个意义上说,教师充当要直接模仿的模板,特征蒸馏可以被认为是一个直接且简单的算法,因为学生和教师网络的特征直接用于表示匹配。

2.2. DMKD框架

为了全面编码物体感知语义到学生网络中,作者开发了一个双重Mask知识蒸馏(DMKD)框架,其中既揭示了空间显著区域,又揭示了信息丰富的通道,以进行更好的Masked特征重建。

值得注意的是,作者的模型可以被视为一个即插即用的增强模块,适用于基本的基于特征的蒸馏方法。

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

如图3所示,作者的DMKD包括三个关键步骤:双重注意力图生成,注意力引导的Masked和自适应权重融合。首先,从教师特征中产生空间和通道注意力图,如下所示:

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

其中, 分别是空间和通道注意力图。公式(2)中的是教师特征图的第个向量,而公式(3)中的是第通道的特征图。引入以调整分布。

接下来,生成的双重注意力图用于根据阈值ττ导出相应的Mask图

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

其中,具有相同的形状。然后,作者利用它们对学生特征进行空间和通道Masked,生成两个Masked特征

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

其中,表示逐元素相乘。

最后,分别采用卷积和多层感知器(MLP)的两个不同的生成块来重建空间和通道Masked特征。值得注意的是,通道重建是通过MLP完成的,与MGD和AMD中的空间重建不同,因为通道特征在空间上是相互独立的。

换句话说,这个生成层应该只关注通道间的交互,这将在消融研究中进行演示。此外,引入了成对的自适应权重因子αβ来融合双重重建特征,得到最终的学生特征,其公式如下:

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

因此,蒸馏损失可以建立在重建的学生特征 和教师对应特征上,如下所示:

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

3、实验

3.1、SOTA对比

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

如表1所示,在第一组实验中,结果表明作者的DMKD不仅将Baseline学生模型的mAP提高了4.1%,还超过了教师网络0.5%的mAP。

与最先进的MGD和AMD相比,DMKD的优势体现在进一步提高了0.5%和0.2%的性能。在mAR指标方面,DMKD也表现出类似的性能优越性。当将RetinaNet网络替换为其他检测器时,也呈现了类似的结果。

3.2、消融实验

3.2.1. Masked策略

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

首先,作者探讨了特征Masked对蒸馏性能的影响,并比较了不同的Masked策略。如表2所示,当没有任何Masked策略参与时,可以观察到性能显著下降,超过1.5%,表明Masked策略在特征蒸馏中起到了有益的作用,以增强特征重构。

此外,当将作者的双重Masked方案与两种单一Masked策略进行比较时,都呈现了一致的性能提升,表明双重Masked在捕获空间显着区域和信息丰富的通道线索方面具有优势,以编码全面的面向对象的表示。

3.2.2. Masked比例

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

表3展示了DMKD在不同Masked比例下的性能。可以清楚地看到,当减小空间Masked比例并增加τ时,模型性能略微下降,这与MAE中的发现一致。这意味着一些空间重要的区域可能被排除在空间Masked之外。

另一方面,当增加通道Masked比例时,也可以观察到类似的性能下降,表明模型过于关注冗余和非信息性的通道。在作者的实验中,双重阈值τs和τc的经验设定为0.55和0.65。

3.2.3. 特征生成模块

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

作者还讨论了特征生成块设计对通道特征重构的影响。如表4所示,作者的DMKD中的基于MLP的模块比基于Conv的模块表现更好。这可以解释为MLP操作符的属性,即与ConvNets中的空间交互相反,它独立于空间维度,并且仅对通道间关系进行建模。

具体来说,作者在实践中使用了两个连续的线性投影 θθ,然后是GELU和Layer Normalization。

4、参考

[1]. DMKD: IMPROVING FEATURE-BASED KNOWLEDGE DISTILLATION FOR OBJECT DETECTION VIA DUAL MASKING AUGMENTATION.

5、推荐阅读

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

DualToken-ViT | 超越LightViT和MobileNet v2,实现更强更快更轻量化的Backbone

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

ACC-UNet | 致敬ConvNeXt,全卷积结构UNet设计,超越SWin-UNet!

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

DEYOv3来袭 | YOLOv8+DETR造就实时端到端目标检测,无需NMS(主打吸引不开源)

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

扫码加入👉「集智书童」交流群

(备注:方向+学校/公司+昵称

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!

DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!DMKD蒸馏 | 模型学习,空间/通道信息我都要!超越FKD、FGD、MGD以及AMD方法!想要了解更多:

前沿AI视觉感知全栈知识👉「分类、检测、分割、关键点、车道线检测、3D视觉(分割、检测)、多模态、目标跟踪、NerF

行业技术方案👉AI安防、AI医疗、AI自动驾驶AI模型部署落地实战👉CUDA、TensorRT、NCNN、OpenVINO、MNN、ONNXRuntime以及地平线框架」

欢迎扫描上方二维码,加入集智书童-知识星球,日常分享论文、学习笔记、问题解决方案、部署方案以及全栈式答疑,期待交流!


免责声明凡本公众号注明“来源:XXX(非集智书童)”的作品,均转载自其它媒体,版权归原作者所有,如有侵权请联系我们删除,谢谢。
点击下方“阅读原文”,了解更多AI学习路上的「武功秘籍」

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy