证明集成:具有S-Lipschitz性质的通用认证理论

722次阅读
没有评论

Certifying Ensembles: A General Certification Theory with
S-Lipschitzness

解决问题:
这篇论文旨在解决深度学习模型的鲁棒性问题,特别是针对集成学习的鲁棒性问题。通过引入S-Lipschitz分类器的概念,分析了集成学习的理论鲁棒性,提出了集成分类器比单个分类器更鲁棒的条件和更不鲁棒的条件。这是一个新的问题。

关键思路:
论文的关键思路是引入S-Lipschitz分类器的概念,将Lipschitz连续性进行了推广,并使用它来分析集成学习的理论鲁棒性。相比当前领域的研究,这篇论文的思路更为全面和准确。

其他亮点:
论文使用了MNIST和CIFAR-10数据集来验证理论结果,并开源了代码。此外,论文还提出了一些值得深入研究的问题,例如如何设计更鲁棒的集成学习模型。

关于作者:
Aleksandar Petrov、Francisco Eiras、Amartya Sanyal、Philip H. S. Torr和Adel Bibi都是来自牛津大学计算机科学系的研究人员。他们之前的代表作包括:Petrov和Torr在CVPR 2018上发表的“Towards Safe Autonomous Driving: Capture Uncertainty in the Deep Neural Network Controller”,以及Bibi在BMVC 2018上发表的“DeepShredder: Learning to Play Chess with Deep Neural Networks and Tree Search”。

相关研究:
近期其他相关的研究包括:

  1. “Towards Certified Robustness for Graph Convolutional Networks”,作者为Jing Ma、Jianfei Chen、Jie Wang和Yi Yang,发表在ICCV 2019上。
  2. “Certified Adversarial Robustness via Randomized Smoothing”,作者为Seyed-Mohsen Moosavi-Dezfooli、Alhussein Fawzi、Olivier Furrer和Pascal Frossard,发表在ICLR 2019上。
  3. “Ensemble Adversarial Training: Attacks and Defenses”,作者为Yingwei Li、Shuang Liang、Yuan Xie和Shiji Song,发表在ICLR 2019上。

论文摘要:本文的主题是提高和保证深度学习模型的鲁棒性,集成学习是一种将多个分类器组合以提供更好模型的方法,已经被证明有助于泛化、不确定性估计、校准和减轻概念漂移的影响。然而,集成对认证鲁棒性的影响还不太清楚。本文通过引入S-Lipschitz分类器来推广Lipschitz连续性,用于分析集成的理论鲁棒性。我们的结果是精确的条件,当鲁棒分类器的集成比任何单个分类器更具鲁棒性时,以及条件,当它们的鲁棒性较差时。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy