文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

飞桨PaddlePaddle手把手教你完成图像生成任务

2024-12-11 18:34

关注

生成对抗网络由两种子网络组成:一个生成器与一个判别期。生成器从潜在空间(latent space)中随机采样作为输入,其输出结果需要尽量模仿训练集中的真实图像。判别器的输入为真实图像或生成网络的输出图像,其目的是将生成器的输出图像从真实图像中尽可能分辨出来。而生成器则要尽可能地欺骗判别器。两个网络相互对抗、不断调整参数,提升自己的能力。

生成对抗网络常用于生成以假乱真的图片,常用场景有手写体生成、人脸合成、风格迁移、图像修复等。此外,该方法还被用于生成视频、三维物体模型等。

项目地址:

https://github.com/PaddlePaddle/book/tree/develop/09.gan

效果展示

 

先来看一下DCGAN的最终效果:将 MNIST 数据集输入网络进行训练,经过19轮训练后的结果如下图,前8行是真实图片的样子,后8行是网络生成的图像效果。可以看到,生成的图片已经非常接近真实图片的样子。

 

模型概览

GAN

GAN是一种通过对抗的方式,去学习数据分布的生成模型。以生成图片为例说明:

在训练的过程中,两个网络互相对抗,最终形成了一个动态的平衡,上述过程用公式可以被描述为:

在最理想的情况下,G 可以生成与真实图片极其相似的图片G(z),而 D 很难判断这张生成的图片是否为真,对图片的真假进行随机猜测,即 D(G(z))=0.5。

下图展示了生成对抗网络的训练过程,假设在训练开始时,真实样本分布、生成样本分布以及判别模型分别是图中的黑线、绿线和蓝线。在训练开始时,判别模型是无法很好地区分真实样本和生成样本的。接下来当我们固定生成模型,而优化判别模型时,优化结果如第二幅图所示,可以看出,这个时候判别模型已经可以较好地区分生成图片和真实图片了。第三步是固定判别模型,改进生成模型,试图让判别模型无法区分生成图片与真实图片,在这个过程中,可以看出由模型生成的图片分布与真实图片分布更加接近,这样的迭代不断进行,直到最终收敛,生成分布和真实分布重合,判别模型无法区分真实图片与生成图片。

图:GAN 训练过程

但是在实际过程中,很难得到这个完美的平衡点,关于GAN的收敛理论还在持续不断的研究中。

DCGAN

DCGAN是深层卷积网络与 GAN 的结合,其基本原理与 GAN 相同,只是将生成器和判别器用两个卷积网络(CNN)替代。为了提高生成样本的质量和网络的收敛速度,论文中的 DCGAN 在网络结构上进行了一些改进:

图:DCGAN中的生成器(G)

快速开始

本文的DCGAN任务依赖于 Paddle Fluid v1.3 及以上版本,请参考官网安装指南进行安装。

数据准备

本文使用数据规模较小的MNIST 训练生成器和判别器,该数据集可通过paddle.dataset模块自动下载到本地。

加载包

首先加载 Paddle Fluid和其他相关包:

  1. import sys 
  2.  
  3. import os 
  4.  
  5. import matplotlib 
  6.  
  7. import PIL 
  8.  
  9. import six 
  10.  
  11. import numpy as np 
  12.  
  13. import math 
  14.  
  15. import time 
  16.  
  17. import paddle 
  18.  
  19. import paddle.fluid as fluid 
  20.  
  21. matplotlib.use('agg'
  22.  
  23. import matplotlib.pyplot as plt 
  24.  
  25. import matplotlib.gridspec as gridspec 
  26.  
  27. from __future__ import absolute_import 
  28.  
  29. from __future__ import division 
  30.  
  31. from __future__ import print_function 

定义辅助工具

定义 plot 函数,将图像生成过程可视化:

  1. def plot(gen_data): 
  2.  
  3. pad_dim = 1 
  4.  
  5. paded = pad_dim + img_dim 
  6.  
  7. gen_data = gen_data.reshape(gen_data.shape[0], img_dim, img_dim) 
  8.  
  9. n = int(math.ceil(math.sqrt(gen_data.shape[0]))) 
  10.  
  11. gen_data = (np.pad( 
  12.  
  13. gen_data, [[0, n * n - gen_data.shape[0]], [pad_dim, 0], [pad_dim, 0]], 
  14.  
  15. 'constant').reshape((n, n, paded, paded)).transpose((0213)) 
  16.  
  17. .reshape((n * paded, n * paded))) 
  18.  
  19. fig = plt.figure(figsize=(88)) 
  20.  
  21. plt.axis('off'
  22.  
  23. plt.imshow(gen_data, cmap='Greys_r', vmin=-1, vmax=1
  24.  
  25. return fig 

定义超参数

  1. gf_dim = 64 # 生成器的feature map的基础通道数量,生成器中所有的feature map的通道数量都是基础通道数量的倍数 
  2.  
  3. df_dim = 64 # 判别器的feature map的基础通道数量,判别器中所有的feature map的通道数量都是基础通道数量的倍数 
  4.  
  5. gfc_dim = 1024 * 2 # 生成器的全连接层维度 
  6.  
  7. dfc_dim = 1024 # 判别器的全连接层维度 
  8.  
  9. img_dim = 28 # 输入图片的尺寸 
  10.  
  11. NOISE_SIZE = 100 # 输入噪声的维度 
  12.  
  13. LEARNING_RATE = 2e-4 # 训练的学习率 
  14.  
  15. epoch = 20 # 训练的epoch数 
  16.  
  17. output = "./output_dcgan" # 模型和测试结果的存储路径 
  18.  
  19. use_cudnn = False # 是否使用cuDNN 
  20.  
  21. use_gpu=False # 是否使用GPU训练 

 

定义网络结构

bn 层

调用 fluid.layers.batch_norm 接口实现bn层,激活函数默认使用ReLu。

  1. def bn(x, name=None, act='relu'): 
  2.  
  3. return fluid.layers.batch_norm( 
  4.  
  5. x, 
  6.  
  7. param_attr=name + '1'
  8.  
  9. bias_attr=name + '2'
  10.  
  11. moving_mean_name=name + '3'
  12.  
  13. moving_variance_name=name + '4'
  14.  
  15. name=name, 
  16.  
  17. act=act) 

卷积层

调用 fluid.nets.simple_img_conv_pool 实现卷积池化组,卷积核大小为3x3,池化窗口大小为2x2,窗口滑动步长为2,激活函数类型由具体网络结构指定。

  1. def conv(x, num_filters, name=None, act=None): 
  2.  
  3. return fluid.nets.simple_img_conv_pool( 
  4.  
  5. input=x, 
  6.  
  7. filter_size=5
  8.  
  9. num_filters=num_filters, 
  10.  
  11. pool_size=2
  12.  
  13. pool_stride=2
  14.  
  15. param_attr=name + 'w'
  16.  
  17. bias_attr=name + 'b'
  18.  
  19. use_cudnn=use_cudnn, 
  20.  
  21. act=act) 

全连接层

  1. def fc(x, num_filters, name=None, act=None): 
  2.  
  3. return fluid.layers.fc(input=x, 
  4.  
  5. size=num_filters, 
  6.  
  7. act=act, 
  8.  
  9. param_attr=name + 'w'
  10.  
  11. bias_attr=name + 'b'

转置卷积层

在生成器中,需要用随机采样值生成全尺寸图像,dcgan使用转置卷积层进行上采样,在Fluid中,我们调用 fluid.layers.conv2d_transpose 实现转置卷积。

  1. def deconv(x, 
  2.  
  3. num_filters, 
  4.  
  5. name=None, 
  6.  
  7. filter_size=5
  8.  
  9. stride=2
  10.  
  11. dilation=1
  12.  
  13. padding=2
  14.  
  15. output_size=None, 
  16.  
  17. act=None): 
  18.  
  19. return fluid.layers.conv2d_transpose( 
  20.  
  21. input=x, 
  22.  
  23. param_attr=name + 'w'
  24.  
  25. bias_attr=name + 'b'
  26.  
  27. num_filters=num_filters, 
  28.  
  29. output_size=output_size, 
  30.  
  31. filter_size=filter_size, 
  32.  
  33. stride=stride, 
  34.  
  35. dilation=dilation, 
  36.  
  37. padding=padding, 
  38.  
  39. use_cudnn=use_cudnn, 
  40.  
  41. act=act) 

判别器

判别器使用真实数据集和生成器生成的假图片共同进行训练,在训练过程中尽量使真实数据集的输出结果为1,生成的假图片输出结果为0。本文中实现的判别器由两个卷积池化层和两个全连接层组成,其中最后一个全连接层的神经元个数为1,输出一个二分类结果。

  1. def D(x): 
  2.  
  3. x = fluid.layers.reshape(x=x, shape=[-112828]) 
  4.  
  5. x = conv(x, df_dim, act='leaky_relu',name='conv1'
  6.  
  7. x = bn(conv(x, df_dim * 2,name='conv2'), act='leaky_relu',name='bn1'
  8.  
  9. x = bn(fc(x, dfc_dim,name='fc1'), act='leaky_relu',name='bn2'
  10.  
  11. x = fc(x, 1, act='sigmoid',name='fc2'
  12.  
  13. return x 

生成器

生成器由两组带BN的全连接层和两组转置卷积层组成,网络输入为随机的噪声数据,最后一层转置卷积的卷积核数为1,表示输出为灰度图片。

  1. def G(x): 
  2.  
  3. x = bn(fc(x, gfc_dim,name='fc3'),name='bn3'
  4.  
  5. x = bn(fc(x, gf_dim * 2 * img_dim // 4 * img_dim // 4,name='fc4'),name='bn4') 
  6.  
  7. x = fluid.layers.reshape(x, [-1, gf_dim * 2, img_dim // 4, img_dim // 4]) 
  8.  
  9. x = deconv(x, gf_dim * 2, act='relu', output_size=[1414],name='deconv1'
  10.  
  11. x = deconv(x, num_filters=1, filter_size=5, padding=2, act='tanh', output_size=[2828],name='deconv2'
  12.  
  13. x = fluid.layers.reshape(x, shape=[-128 * 28]) 
  14.  
  15. return x 

损失函数

损失函数使用 sigmoid_cross_entropy_with_logits

  1. def loss(x, label): 
  2.  
  3. return fluid.layers.mean( 
  4.  
  5. fluid.layers.sigmoid_cross_entropy_with_logits(x=x, label=label)) 

创建Program

  1. d_program = fluid.Program() 
  2.  
  3. dg_program = fluid.Program() 
  4.  
  5. # 定义判别真实图片的program 
  6.  
  7. with fluid.program_guard(d_program): 
  8.  
  9. # 输入图片大小为28*28=784 
  10.  
  11. img = fluid.layers.data(name='img', shape=[784], dtype='float32'
  12.  
  13. # 标签shape=1 
  14.  
  15. label = fluid.layers.data(name='label', shape=[1], dtype='float32'
  16.  
  17. d_logit = D(img) 
  18.  
  19. d_loss = loss(d_logit, label) 
  20.  
  21. # 定义判别生成图片的program 
  22.  
  23. with fluid.program_guard(dg_program): 
  24.  
  25. noise = fluid.layers.data( 
  26.  
  27. name='noise', shape=[NOISE_SIZE], dtype='float32'
  28.  
  29. # 噪声数据作为输入得到生成图片 
  30.  
  31. g_img = G(x=noise) 
  32.  
  33. g_program = dg_program.clone() 
  34.  
  35. g_program_test = dg_program.clone(for_test=True) 
  36.  
  37. # 判断生成图片为真实样本的概率 
  38.  
  39. dg_logit = D(g_img) 
  40.  
  41. # 计算生成图片被判别为真实样本的loss 
  42.  
  43. dg_loss = loss( 
  44.  
  45. dg_logit, 
  46.  
  47. fluid.layers.fill_constant_batch_size_like( 
  48.  
  49. input=noise, dtype='float32', shape=[-11], value=1.0)) 

使用adam作为优化器,分别优化判别真实图片的loss和判别生成图片的loss。

  1. opt = fluid.optimizer.Adam(learning_rate=LEARNING_RATE) 
  2.  
  3. opt.minimize(loss=d_loss) 
  4.  
  5. parameters = [p.name for p in g_program.global_block().all_parameters()] 
  6.  
  7. opt.minimize(loss=dg_loss, parameter_list=parameters) 

数据集 Feeders 配置

下一步,我们开始训练过程。paddle.dataset.mnist.train()用做训练数据集。这个函数返回一个reader——飞桨(PaddlePaddle)中的reader是一个Python函数,每次调用的时候返回一个Python yield generator。

下面shuffle是一个reader decorator,它接受一个reader A,返回另一个reader B。reader B 每次读入buffer_size条训练数据到一个buffer里,然后随机打乱其顺序,并且逐条输出。

batch是一个特殊的decorator,它的输入是一个reader,输出是一个batched reader。在飞桨(PaddlePaddle)里,一个reader每次yield一条训练数据,而一个batched reader每次yield一个minibatch。

  1. batch_size = 128 # Minibatch size 
  2.  
  3. train_reader = paddle.batch( 
  4.  
  5. paddle.reader.shuffle( 
  6.  
  7. paddle.dataset.mnist.train(), buf_size=60000), 
  8.  
  9. batch_size=batch_size) 

创建执行器

  1. if use_gpu: 
  2.  
  3. exe = fluid.Executor(fluid.CUDAPlace(0)) 
  4.  
  5. else: 
  6.  
  7. exe = fluid.Executor(fluid.CPUPlace()) 
  8.  
  9. exe.run(fluid.default_startup_program()) 

开始训练

训练过程中的每一次迭代,生成器和判别器分别设置自己的迭代次数。为了避免判别器快速收敛到0,本文默认每迭代一次,训练一次判别器,两次生成器。

  1. t_time = 0 
  2.  
  3. losses = [[], []] 
  4.  
  5. # 判别器的迭代次数 
  6.  
  7. NUM_TRAIN_TIMES_OF_DG = 2 
  8.  
  9. # 最终生成图像的噪声数据 
  10.  
  11. const_n = np.random.uniform( 
  12.  
  13. low=-1.0, high=1.0
  14.  
  15. size=[batch_size, NOISE_SIZE]).astype('float32'
  16.  
  17. for pass_id in range(epoch): 
  18.  
  19. for batch_id, data in enumerate(train_reader()): 
  20.  
  21. if len(data) != batch_size: 
  22.  
  23. continue 
  24.  
  25. # 生成训练过程的噪声数据 
  26.  
  27. noise_data = np.random.uniform( 
  28.  
  29. low=-1.0, high=1.0
  30.  
  31. size=[batch_size, NOISE_SIZE]).astype('float32'
  32.  
  33. # 真实图片 
  34.  
  35. real_image = np.array(list(map(lambda x: x[0], data))).reshape( 
  36.  
  37. -1784).astype('float32'
  38.  
  39. # 真实标签 
  40.  
  41. real_labels = np.ones( 
  42.  
  43. shape=[real_image.shape[0], 1], dtype='float32'
  44.  
  45. # 虚假标签 
  46.  
  47. fake_labels = np.zeros( 
  48.  
  49. shape=[real_image.shape[0], 1], dtype='float32'
  50.  
  51. total_label = np.concatenate([real_labels, fake_labels]) 
  52.  
  53. s_time = time.time() 
  54.  
  55. # 虚假图片 
  56.  
  57. generated_image = exe.run(g_program, 
  58.  
  59. feed={'noise': noise_data}, 
  60.  
  61. fetch_list={g_img})[0
  62.  
  63. total_images = np.concatenate([real_image, generated_image]) 
  64.  
  65. # D 判断虚假图片为假的loss 
  66.  
  67. d_loss_1 = exe.run(d_program, 
  68.  
  69. feed={ 
  70.  
  71. 'img': generated_image, 
  72.  
  73. 'label': fake_labels, 
  74.  
  75. }, 
  76.  
  77. fetch_list={d_loss})[0][0
  78.  
  79. # D 判断真实图片为真的loss 
  80.  
  81. d_loss_2 = exe.run(d_program, 
  82.  
  83. feed={ 
  84.  
  85. 'img': real_image, 
  86.  
  87. 'label': real_labels, 
  88.  
  89. }, 
  90.  
  91. fetch_list={d_loss})[0][0
  92.  
  93. d_loss_n = d_loss_1 + d_loss_2 
  94.  
  95. losses[0].append(d_loss_n) 
  96.  
  97. # 训练生成器 
  98.  
  99. for _ in six.moves.xrange(NUM_TRAIN_TIMES_OF_DG): 
  100.  
  101. noise_data = np.random.uniform( 
  102.  
  103. low=-1.0, high=1.0
  104.  
  105. size=[batch_size, NOISE_SIZE]).astype('float32'
  106.  
  107. dg_loss_n = exe.run(dg_program, 
  108.  
  109. feed={'noise': noise_data}, 
  110.  
  111. fetch_list={dg_loss})[0][0
  112.  
  113. losses[1].append(dg_loss_n) 
  114.  
  115. t_time += (time.time() - s_time) 
  116.  
  117. if batch_id % 10 == 0 and not run_ce: 
  118.  
  119. if not os.path.exists(output): 
  120.  
  121. os.makedirs(output) 
  122.  
  123. # 每轮的生成结果 
  124.  
  125. generated_images = exe.run(g_program_test, 
  126.  
  127. feed={'noise': const_n}, 
  128.  
  129. fetch_list={g_img})[0
  130.  
  131. # 将真实图片和生成图片连接 
  132.  
  133. total_images = np.concatenate([real_image, generated_images]) 
  134.  
  135. fig = plot(total_images) 
  136.  
  137. msg = "Epoch ID={0} Batch ID={1} D-Loss={2} DG-Loss={3}\n ".format( 
  138.  
  139. pass_id, batch_id, 
  140.  
  141. d_loss_n, dg_loss_n) 
  142.  
  143. print(msg) 
  144.  
  145. plt.title(msg) 
  146.  
  147. plt.savefig( 
  148.  
  149. '{}/{:04d}_{:04d}.png'.format(output, pass_id, 
  150.  
  151. batch_id), 
  152.  
  153. bbox_inches='tight'
  154.  
  155. plt.close(fig) 

打印特定轮次的生成结果:

  1. def display_image(epoch_no,batch_id): 
  2.  
  3. return PIL.Image.open('output_dcgan/{:04d}_{:04d}.png'.format(epoch_no,batch_id)) 
  4.  
  5. # 观察第10个epoch,460个batch的生成图像: 
  6.  
  7. display_image(10,460

 

总结

DCGAN采用一个随机噪声向量作为输入,输入通过与CNN类似但是相反的结构,将输入放大成二维数据。采用这种结构的生成模型和CNN结构的判别模型,DCGAN在图片生成上可以达到相当可观的效果。本文中,我们利用DCGAN生成了手写数字图片,您可以尝试更换数据集生成符合个人需求的图片,完成您的图像生成任务,快来试试吧!

更多内容,可点击文末阅读原文或查看:

https://github.com/PaddlePaddle/book/tree/develop/09.gan

ps:最后给大家推荐一个GPU福利-Tesla V100免费算力!配合PaddleHub能让模型原地起飞~扫码下方二维码申请~

 

 

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯