《Deep Iterative Down-Up CNN for Image Denoising》论文阅读

一、论文

《Deep Iterative Down-Up CNN for Image Denoising》

由于GPU内存的有效使用及其产生大接收场的能力,在低级视觉研究中已广泛研究了使用按比例缩小和按比例放大特征图的网络。在本文中,我们提出了一种用于图像去噪的深度迭代向下卷积神经网络(DIDN),该算法反复减少和增加特征图的分辨率。网络的基本结构受到U-Net的启发,U-Net最初是为语义分段而开发的。我们针对图像去噪任务修改了按比例缩小和按比例放大的图层。 训练常规降噪网络以处理单级噪声,或者可替代地使用噪声信息作为输入,以使用单个模型解决多级噪声。 相反,由于我们网络的高效内存使用使其能够处理多个参数,因此它能够使用单个模型处理各种噪声级别,而无需输入噪声信息作为解决方法。 因此,我们的DIDN使用基准数据集展示了最先进的性能,还展示了其在NTIRE 2019真实图像去噪挑战中的优越性。

总而言之,这项工作的贡献如下:

(1)一种新颖的CNN架构,迭代地收缩和扩展具有很大接收域的特征。

(2)修改了U-Net用于图像去噪任务的缩小和放大过程。

(3)将加权平均技术应用于高斯噪声图像去噪,从而获得了一个更通用和性能增强的模型,而没有附加参数。

(4)一种有效的方法来训练单个模型,使其可以处理多级噪声(未知噪声)而无需输入噪声信息。

 (5) 最先进的高斯图像降噪性能。

二、模型结构

U-Net [24]最初是用于语义分割的。  U-Net由两条路径组成:收缩路径可减小深层特征的尺寸,而扩展路径可增大这些特征的尺寸。  U-Net的核心原理是降低特征的分辨率以增加接收域,然后通过匹配分辨率级别的级联来重用特征,以最大程度地减小由向下缩放所引起的信息丢失。  形结构的效率在图像去噪中得到了验证[14],并归因于其大的接收场,高的GPU内存效率和较低的计算成本。  DBPN [25]证明了特征图的迭代向下缩放对于学习图像超分辨率任务是有效的。 但是,此方法增加了特征图的整体大小,减小了接收场并增加了计算复杂度。利用[24]和[25],我们提出了一种称为深度迭代下降网络(DIDN)的迭代下降规模缩放网络,通过顺序重复收缩和扩展过程,提供了较大的接收范围和有效的GPU内存使用率。 图2显示了(a)DIDN的体系结构(b)DUB的结构图2:提议的DIDN的体系结构。步幅为2个子像素层,缩放比例为2。 在这里,灰色块代表特征图,特征图构建由四个不同分辨率级别组成的分层结构。  DIDN由四个部分组成:特征提取,向下块(DUB),重建和增强。

初始特征提取:当输入图像的大小为时,DIDN首先在输入图像上使用3*3卷积提取ܰ个特征,然后通过步长为2的卷积层提取个大小的特征 。

DUB:提取的特征经过多个DUB的迭代缩减缩放。 在DUB中,收缩和扩展是通过两个缩小和放大过程执行的。 跨度为2的3×3卷积层和子像素层分别用于缩小和放大。 在缩小过程中,特征图的大小在水平和垂直方向上减小一半,并且特征数量增加一倍。 在放大过程中,由于通过子像素层将输入特征的数量减少了四分之一,因此在子像素层之前通过1ൈ1卷积层增加了特征图的数量,以保持信息密度。 就像在U-Net [24]中一样,将相同分辨率级别的特征连接在一起,以增加这些特征在层次结构中的重用。 块开头和结尾的功能通过跳过连接[21]进行链接。

重构:受MemNet [9]的启发,我们在最后一个DUB之后放置了一个通用的重构块,以利用所有本地输出。 所有DUB的输出形成重建模块的输入,并且重建模块的所有输出被串联以经过增强阶段。 重建块由九个卷积层(Conv)和参数化整流线性单元(PReLU)组成[38]。 更具体地说,有四个连续的残差块,由“ Conv + PReLU + Conv + PReLU”组成,最后还有其他Conv。

增强功能:最后,通过1*1卷积,减少了重建块中输出特征图的数量,并在子像素层执行了放大操作,以生成最终的去噪图像。

三、代码

四、学习资料

IR_DIDN论文总结+结构实现