[CVPR2021]AdderSR: Towards Energy Efficient Image Super-Resolution学习笔记
-
一 研究问题
单图像超分辨率(SISR)是一项典型的计算机视觉任务,其目的是从低分辨率(LR)图像中重建高分辨率图像。SISR是智能手机和移动相机在现实应用中非常流行的图像信号处理任务。由于这些便携式设备的硬件限制,有必要开发具有低计算成本和高视觉质量的SISR模型。
第一个超分辨率的卷积神经网络(SRCNN)[5]只包含三个具有大约57K参数的卷积层。然后,随着深度和宽度的增加,DCNN的容量被放大,导致超分辨率的显著提高。最近DCNN的参数和计算成本也相应增加。例如,剩余密集网络(RDN)[30]包含22M参数,并且仅处理一个图像需要大约10,192GFLOP(浮数操作)。与视觉识别的神经网络(如50清晰度网)相比,由于较大的特征地图大小,SISR模型具有更高的计算复杂度。这些大量的计算将减少移动设备的持续时间。
本文利用加法神经网络(AdderNet)研究了单幅图像超分辨率问题。 与卷积神经网络相比,加法网利用加法计算输出特征,避免了传统乘法的大量能量消耗。 然而,由于计算范式的不同,很难将AdderNet在大规模图像分类上的现有成功直接继承到图像超分辨率任务中。 具体来说,加法器操作不容易学习一致性映射,这对于图像处理任务是必不可少的。 此外,AdderNet无法保证高通滤波器的功能。 为此,我们深入分析了加法器操作与身份映射之间的关系,并插入快捷方式,以提高使用加法器网络的SR模型的性能。
二 背景介绍
AdderNet
加法网络,“计算机视觉研究院”平台之前就详细分析了,并且移植到目标检测,具体链接如下:
CVPR2020 AdderNet(加法网络)https://arxiv.org/pdf/1912.13200.pdf
代码实践 | CVPR2020——AdderNet(加法网络(代码分享)https://github.com/huawei-noah/AdderNet
现有的有效超分辨率方法旨在减少模型的参数或计算量。最近,[Hanting Chen, Yunhe Wang, Chunjing Xu, Boxin Shi, Chao Xu, Qi Tian, and Chang Xu. Addernet: Do we really need multiplications in deep learning? In CVPR, 2020]开创了一种新的方法,通过用加法运算代替乘法来减少网络的功耗。它在卷积层中没有任何乘法,在分类任务上实现了边际精度损失。本此研究旨在提高加法网络在超分辨率任务中的性能。
三 流程图
简要概括本文流程:
1、提出将Addnet应用在SR里会遇到的两个问题,- 不能学习一致性映射
- 不能实现高通滤波
2、分析了这两个问题出现的原因并进行证明
3、提出了解决这两个问题的方法
4、实验验证
四 方法
核心方法简述:- 利用类似残差的方法解决无法实现一致性映射的问题
- 利用指数激活解决无法实现高通滤波的问题
参考
AdderSR: Towards Energy Efficient Image Super-Resolution
https://arxiv.org/pdf/2009.08891
AdderNet: Do We Really Need Multiplications in Deep Learning?https://arxiv.org/pdf/1912.13200.pdf
https://mp.weixin.qq.com/s?
https://www.baidu.com/link?url=KmvUqMwHPXiGLpHLg1e1bW0aY1i78LgG8IZCmQEP7GT_7-re2vencosdO5Cf5N1Gmyx7SiDHeUs9j9-DHmKjQzGTiA6Eyni56Gmep5z-etS&wd=&eqid=fc963e5a00008c8c0000000660599d46__biz=MzU0NTAyNTQ1OQ==&mid=2247489150&idx=1&sn=d83c414b543329cd37753513b49cefa3&chksm=fb726aa2cc05e3b4fce935e45602952ca9b1e3091952a1b4cce72c1d899debaec47bd21e071d&scene=21#wechat_redirect -
@alice_智享云 为啥别人前面的标题不一样
-
啥也不多说,快点联系我领取奖励吧,首次发帖50元,数量达3篇100元~还可参与本月排名奖励!
-
@学习cv的小何 加油,争取变成一条大河
-
新人初写,多多指教
-
Alice_恒源云
-