Google Research|模型大小与记忆的关系

1,093次阅读
没有评论

What do larger image classifiers memorise?

M Lukasik, V Nagarajan, A S Rawat, A K Menon, S Kumar
[Google Research]

模型大小与记忆的关系

  • 使用Feldman(2019)提出的稳定性记忆度量,研究图像分类模型大小增大时的记忆情况。
  • 在CIFAR-100数据集上,随着模型深度的增加,平均记忆度先增加后减少,因为在样本内准确率饱和的同时,样本外准确率持续提高。
  • 随着模型变大,记忆度分布变得越来越双峰——越来越多样本的记忆度接近0或1。
  • 不同大小的模型对样本的记忆轨迹各异——大多数样本的记忆度降低,但某些样本的记忆度即使在模型输出饱和后也增加。
  • 记忆度增加的样本通常含义模糊或错误标记,记忆度降低的样本虽复杂但标记正确。
  • 一些记忆度近似指标如C-score无法反映记忆度的双峰分布和样本轨迹的多样性。
  • 知识蒸馏抑制记忆,特别是对记忆度高的样本的记忆,它主要影响记忆度增加的样本,从而提高泛化能力。

动机:研究现代神经网络为什么能在训练集上完美拟合(“记忆”)随机标签的情况下,仍然能良好地进行泛化。

方法:使用Feldman提出的记忆度量方法,对不同模型大小的图像分类模型进行全面的实证分析,研究模型大小与记忆之间的关系,并探索知识蒸馏对记忆的影响。

优势:通过详细的实验和分析,揭示了模型大小与记忆之间的复杂关系,发现了记忆在不同模型大小下的多样性变化,并证明了知识蒸馏可以抑制记忆,同时改善泛化性能。

通过研究模型大小与记忆之间的关系以及知识蒸馏对记忆的影响,揭示了神经网络泛化能力与记忆之间的复杂关系,提出一种新的视角来理解神经网络的学习行为。

https://arxiv.org/abs/2310.05337 

Google Research|模型大小与记忆的关系
Google Research|模型大小与记忆的关系
Google Research|模型大小与记忆的关系

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2023 年 10 月
 1
2345678
9101112131415
16171819202122
23242526272829
3031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开 Jay 2026-01-08 20:18:...
训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享

训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享

训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享 衡宇 2026-01-08 20:...
「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2...
开源“裸考”真实世界,国产具身智能基座模型拿下全球第二!

开源“裸考”真实世界,国产具身智能基座模型拿下全球第二!

开源“裸考”真实世界,国产具身智能基座模型拿下全球第二! 西风 2026-01-08 19:02:20 来源:...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
刚开年,马斯克就到账了200亿美金!

刚开年,马斯克就到账了200亿美金!

Failed to fetch content Read More 
B站开启AI创作大赛,首次开放《三体》改编权,奖金总计超300万

B站开启AI创作大赛,首次开放《三体》改编权,奖金总计超300万

B站开启AI创作大赛,首次开放《三体》改编权,奖金总计超300万 量子位的朋友们 2026-01-05 15:...
悲报!Stack Overflow彻底凉了,比18年前上线首月问题数量还少

悲报!Stack Overflow彻底凉了,比18年前上线首月问题数量还少

悲报!Stack Overflow彻底凉了,比18年前上线首月问题数量还少 闻乐 2026-01-05 19:...
老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛

老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛

老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛 闻乐 2026-01-06 09:09:0...