单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

新闻 人工智能
数据集太小了,无法训练GAN?试试从单个图像入手吧。去年谷歌就提出了SinGAN,是第一个拿GAN在单幅自然图像学习的非条件生成模型(ICCV 2019最佳论文)。

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

数据集太小了,无法训练GAN?试试从单个图像入手吧。

去年谷歌就提出了SinGAN,是第一个拿GAN在单幅自然图像学习的非条件生成模型(ICCV 2019最佳论文)。

而最近,来自Adobe和汉堡大学的研究人员,对这个方法做了改进,探讨了几种让GAN在单幅图像提高训练和生成能力的机制。

研究人员将改进的模型称作ConSinGAN

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

那么,先来看下ConSinGAN的效果吧。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

上图左侧是用来训练的单个图像,右侧是利用ConSinGAN训练后生成的复杂全局结构。

可以看出效果还是比较逼真。

当然,ConSinGAN还可以用来处理许多其他任务,例如图像超分辨率( image super-resolution)、图像动画(image animation),以及图像去雾(image dehazing)。

下面两张就是它在图像协调(image harmonization)和图像编辑(image editing)上的效果。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源
单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

ConSinGAN是怎么做到的呢?

训练架构优化:并行的SinGAN

首先,我们先来看下SinGAN的训练过程。

SinGAN在图像中训练几个单独的生成网络,下图便是第一个生成器,也是唯一从随机噪声生成图像的无条件生成器。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源
在SinGAN中训练的第一个生成器

这里的判别器从来不将图像看做一个整体,通过这种方法,它就可以知道“真实的”图像补丁(patch)是什么样子。

这样,生成器就可以通过生成,在全局来看不同,但仅从补丁来看却相似的图像,来达到“欺诈”的目的。

在更高分辨率上工作的生成器,将前一个生成器生成的图像作为输入,在此基础上生成比当前还要高分辨率的图像。

所有的生成器都是单独训练的,这意味着在训练当前生成器时,所有以前的生成器的权重都保持不变。

这一过程如下图所示。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

而在Adobe与汉堡大学的研究人员发现,在给定的时间内仅能训练一个生成器,并将图像(而不是特征图)从一个生成器传输到下一个生成器,这就限制了生成器之间的交互。

因此,他们对生成器进行了端到端的训练,也就是说,在给定时间内训练多个生成器,每个生成器将前一个生成器生成的特征(而不是图像)作为输入。

这也就是ConSinGAN名字的由来——并行的SinGAN,过程如下图所示。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

然而,采取这样的措施又会面临一个问题,也就是过拟合。这意味着最终的模型不会生成任何“新”图像,而是只生成训练图像。

为了防止这种现象发生,研究人员采取了2个措施:

  • 在任意给定时间内,只训练一部分生成器;
  • 对不同的生成器采用不同的学习率(learning rate)。

下图就展示了使用这两种方法实现的模型。默认情况下,最多同时训练3个生成器,并对较低的生成器,分别将学习率调至1/10和1/100。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

在这个过程中,有一个有趣的现象。

如果对较低的生成器采用较高的学习率,那么生成的图像质量会高些,但是差异性较弱。

相反,如果对较低的生成器采用较小的学习率,那么生成图像的差异性会丰富一些。如下图所示。

单张图像就可以训练GAN!Adobe改良图像生成方法 | 已开源

代码已开源

ConSinGAN的代码已经在GitHub上开源。

老规矩,先介绍一下运行所需要的环境:Python 3.5;Pytorch 1.1.0。

安装也非常简单:

  1. pip install -r requirements.txt 

若要使用论文中的默认参数训练模型:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/angkorwat.jpg 

在英伟达GeForce GTX 1080Ti上训练一个模型大约需要20-25分钟。

不同的学习率和训练阶段数量,会影响实验的结果,研究人员推荐二者的默认值分别是0.1和6。

当然也可以修改学习率:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --lr_scale 0.5 

修改训练阶段的数量:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --train_stages 7 

当然,模型也可以用来处理“图像协调”和“图像编辑”等任务,详情可参阅GitHub。

传送门

论文地址:
https://arxiv.org/pdf/2003.11512.pdf

GitHub项目地址:
https://github.com/tohinz/ConSinGAN

 

责任编辑:张燕妮 来源: 量子位
相关推荐

2022-02-25 10:28:30

人工智能图像模型

2022-03-23 10:07:00

Adobe人像训练

2021-03-24 15:29:48

Python 开发编程语言

2020-10-04 13:12:53

开源技术 数据

2023-12-18 08:57:22

GAN网络

2021-11-02 09:25:00

AI 数据人工智能

2020-06-15 14:18:05

数据平台架构

2023-03-22 11:06:32

2022-10-17 07:16:08

SQL机器学习AI

2018-07-19 06:07:22

物联网安全物联网IOT

2022-02-28 17:57:44

云迁移云计算

2017-02-13 09:33:32

2018-11-27 09:21:41

负载均衡机器Session

2022-02-28 22:58:04

云迁移IT开发

2018-12-03 08:04:25

负载均衡机器流量

2018-03-01 15:00:15

Oracle数据中心云计算

2020-11-19 08:00:03

打工人离职工作

2015-07-10 11:18:19

2021-03-01 14:05:50

机器学习人工智能计算机

2015-12-21 13:11:02

开源A-FrameWebGL
点赞
收藏

51CTO技术栈公众号