【论文阅读】EnlightenGAN:Deep Light Enhancement without Paired Supervision(Arxiv201906)

arxiv上一篇关于unpair数据低光照增强的论文,看格式应该是投稿CVPR。

文章使用非成对图像做无监督的图像增强,实现低照域图像转换,不仅解决成对数据收集难的问题,还实现了不同场景低光照图像对应参考图像亮度不一致的问题。结构图如下所示:

如上所示,网络整体是一个UNet的结构。对于一张图,一般希望增强其亮度暗的区域,所以这里将输入图提取亮度分量I,然后1-I并将其resize到对应的feature大小,和UNet转换中各部分的feature相乘,如上图所示。上采样使用的是resize加卷积的方式去除棋盘效应。Loss部分,包括,一个全局的GAN loss,判别器输入是生成图和目标域的整张图像,一个局部的GAN loss,输出是五个上述两者的patch,两个部分分别做全局和局部的约束,这里的GAN使用了LSGAN。此外,论文还使用了特征保留loss,即生成图和输入图内容要有一致性,这里使用的是VGG特征,同样也分为全局和局部两个部分。

增强常使用attention map、UNet等方法。这个方法是否可以用于video enhancement呢?

本文标题:【论文阅读】EnlightenGAN:Deep Light Enhancement without Paired Supervision(Arxiv201906)

文章作者:Zeyuxiao

发布时间:2020年01月06日 - 11:01

最后更新:2020年01月06日 - 11:01

原始链接:https://zeyuxiao1997.github.io/2020/01/06/VDMV/

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。