|
|
51CTO旗下网站
|
|
移动端

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

数据集太小了,无法训练GAN?试试从单个图像入手吧。去年谷歌就提出了SinGAN,是第一个拿GAN在单幅自然图像学习的非条件生成模型(ICCV 2019最佳论文)。

作者:十三来源:量子位|2020-03-30 16:00

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

数据集太小了,无法训练GAN?试试从单个图像入手吧。

去年谷歌就提出了SinGAN,是第一个拿GAN在单幅自然图像学习的非条件生成模型(ICCV 2019最佳论文)。

而最近,来自Adobe和汉堡大学的研究人员,对这个方法做了改进,探讨了几种让GAN在单幅图像提高训练和生成能力的机制。

研究人员将改进的模型称作ConSinGAN

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

那么,先来看下ConSinGAN的效果吧。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

上图左侧是用来训练的单个图像,右侧是利用ConSinGAN训练后生成的复杂全局结构。

可以看出效果还是比较逼真。

当然,ConSinGAN还可以用来处理许多其他任务,例如图像超分辨率( image super-resolution)、图像动画(image animation),以及图像去雾(image dehazing)。

下面两张就是它在图像协调(image harmonization)和图像编辑(image editing)上的效果。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源
单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

ConSinGAN是怎么做到的呢?

训练架构优化:并行的SinGAN

首先,我们先来看下SinGAN的训练过程。

SinGAN在图像中训练几个单独的生成网络,下图便是第一个生成器,也是唯一从随机噪声生成图像的无条件生成器。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源
在SinGAN中训练的第一个生成器

这里的判别器从来不将图像看做一个整体,通过这种方法,它就可以知道“真实的”图像补丁(patch)是什么样子。

这样,生成器就可以通过生成,在全局来看不同,但仅从补丁来看却相似的图像,来达到“欺诈”的目的。

在更高分辨率上工作的生成器,将前一个生成器生成的图像作为输入,在此基础上生成比当前还要高分辨率的图像。

所有的生成器都是单独训练的,这意味着在训练当前生成器时,所有以前的生成器的权重都保持不变。

这一过程如下图所示。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

而在Adobe与汉堡大学的研究人员发现,在给定的时间内仅能训练一个生成器,并将图像(而不是特征图)从一个生成器传输到下一个生成器,这就限制了生成器之间的交互。

因此,他们对生成器进行了端到端的训练,也就是说,在给定时间内训练多个生成器,每个生成器将前一个生成器生成的特征(而不是图像)作为输入。

这也就是ConSinGAN名字的由来——并行的SinGAN,过程如下图所示。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

然而,采取这样的措施又会面临一个问题,也就是过拟合。这意味着最终的模型不会生成任何“新”图像,而是只生成训练图像。

为了防止这种现象发生,研究人员采取了2个措施:

  • 在任意给定时间内,只训练一部分生成器;
  • 对不同的生成器采用不同的学习率(learning rate)。

下图就展示了使用这两种方法实现的模型。默认情况下,最多同时训练3个生成器,并对较低的生成器,分别将学习率调至1/10和1/100。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

在这个过程中,有一个有趣的现象。

如果对较低的生成器采用较高的学习率,那么生成的图像质量会高些,但是差异性较弱。

相反,如果对较低的生成器采用较小的学习率,那么生成图像的差异性会丰富一些。如下图所示。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

代码已开源

ConSinGAN的代码已经在GitHub上开源。

老规矩,先介绍一下运行所需要的环境:Python 3.5;Pytorch 1.1.0。

安装也非常简单:

  1. pip install -r requirements.txt 

若要使用论文中的默认参数训练模型:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/angkorwat.jpg 

在英伟达GeForce GTX 1080Ti上训练一个模型大约需要20-25分钟。

不同的学习率和训练阶段数量,会影响实验的结果,研究人员推荐二者的默认值分别是0.1和6。

当然也可以修改学习率:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --lr_scale 0.5 

修改训练阶段的数量:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --train_stages 7 

当然,模型也可以用来处理“图像协调”和“图像编辑”等任务,详情可参阅GitHub。

传送门

论文地址:
https://arxiv.org/pdf/2003.11512.pdf

GitHub项目地址:
https://github.com/tohinz/ConSinGAN

【编辑推荐】

  1. 项目已开源,微软研究院用迁移学习训练自主无人机,可用于真实环境
  2. 苹果招兵买马,或在开源领域有大动作?
  3. 无需停运而减少技术债务的八个技巧
  4. 华为全场景 AI 计算框架MindSpore开源!
  5. 为什么说表面强大的微信生态已经开始枯萎?_IT技术周刊第622期
【责任编辑:张燕妮 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

订阅专栏+更多

 敏捷无敌之 Gitlab CI 持续集成

敏捷无敌之 Gitlab CI 持续集成

打破运维与研发壁垒
共5章 | KaliArch

109人订阅学习

秒杀高并发白话实战

秒杀高并发白话实战

主流高并发架构
共15章 | 51CTO崔皓

64人订阅学习

网络排障一点通

网络排障一点通

网络排障及优化调整案例
共20章 | 捷哥CCIE

485人订阅学习

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊

51CTO服务号

51CTO官微