Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

25次阅读
没有评论

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

不卷数据不烧卡

这次不是卷参数、卷算力,而是卷“跨界学习”——

Stable Diffusion当老师,教多模态大模型(如Llama-3.2)如何“看图说话”!

性能直接飙升30%。

中国研究员联合DeepMind团队的最新研究《Lavender: Diffusion Instruction Tuning》,通过简单的“注意力对齐”,仅需1天训练、2.5%常规数据量,即可让Llama-3.2等模型在多模态问答任务中性能飙升30%,甚至能防“偏科”(分布外医学任务提升68%)。

且代码、模型、训练数据将全部开源

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

下面具体来看。

模仿Stable Diffusion的交叉注意力机制

当前遇到的问题是:

传统多模态大模型(VLM)的“视觉课”总不及格?数据不够、过拟合、细节抓不准……像极了考前突击失败的学渣。

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

对此,团队提出了新的解决方案:

让Stable Diffusion这位“图像生成课代表”,直接共享它的“学霸笔记”——注意力分布

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

展开来说,其跨界教学可分为三步走:

Step1:拜师学艺。VLM(如Llama-3.2)向Stable Diffusion学习如何“看图”,通过轻量级对齐网络(Aligner)模仿其交叉注意力机制。

Step2:高效补课:仅用13万样本(常规数据量的2.5%)、8块GPU训练1天,不卷数据不烧卡。

Step3:防偏科秘籍。引入LoRA技术“轻装上阵”,保留原模型能力的同时,专攻薄弱环节。

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

然后来看下具体效果。

从论文晒出的成绩单来看,在16项视觉-语言任务中,Lavender调教后的Llama-3.2,性能大有提升——

在预算有限的小模型赛道上,超过SOTA(当前最优模型)50%。

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

在超大模型圈子里,Lavender调教的Llama-3.2-11B居然能和那些“巨无霸”SOTA打得有来有回。

要知道,这些对手的体量一般在它的10倍以上。

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

更令人惊讶的是,Lavender连医学数据都没“补习”,就直接让Llama-3.2-11B在WorldMedQA这个“超纲考试”中成绩暴涨68%。

具体分数见图表(柱状图已标出)

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

代码/模型/训练数据全开源

小结一下,新研究主要技术亮点如下:

1、注意力对齐:Stable Diffusion的“独家教案”

传统VLM的注意力机制像“散光患者”,而Stable Diffusion的注意力分布则是“高清显微镜”。Lavender通过MSE损失函数,让VLM学会Stable Diffusion的“聚焦技巧”,直接提升视觉理解精度。

2. 数据不够?知识蒸馏来凑

无需海量标注数据,直接从图像生成模型中蒸馏视觉知识,堪称“小样本学习神器”。正如论文团队调侃:“这大概就是AI界的‘名师一对一补习班’。”

3. 防过拟合Buff:LoRA+注意力约束

通过低秩适配(LoRA)锁定核心参数,避免模型“死记硬背”。实验显示,Lavender在分布外任务上的鲁棒性吊打传统SFT方法,具备“抗偏科体质”。

另外,从具体应用场景来看,Lavender的视觉理解能力直接拉满。

无论是表格标题还是图表里的小数据点,Lavender都能一眼锁定关键信息,不会“偏题”;且对于复杂图形、大小位置关系,Lavender也能避免视觉误导,轻松拿捏。

实验显示,从医学病灶定位到多语言问答,Lavender不仅看得准,还答得对,连西班牙语提问都难不倒它。

Llama模仿Diffusion多模态涨分30%!只需共享注意力分布

目前,团队不仅公开了论文,代码/模型/训练数据也全部开源了。

  • 训练数据:由Stable Diffusion标注的高质量对齐样本;
  • 预训练模型:基于Llama-3.2、MiniCPMv2.5等架构的Lavender适配版;
  • 调参指南:从小白到进阶的“注意力对齐”实操手册;

对于上述研究,团队负责人表示:

我们希望证明,高效、轻量的模型优化,比无脑堆参数更有未来。

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy