文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

怎么在Pytorch中利用WGAN生成动漫头像

2023-06-06 17:52

关注

本篇文章为大家展示了怎么在Pytorch中利用WGAN生成动漫头像,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

WGAN与GAN的不同

WGAN实战卷积生成动漫头像 

import torchimport torch.nn as nnimport torchvision.transforms as transformsfrom torch.utils.data import DataLoaderfrom torchvision.utils import save_imageimport osfrom anime_face_generator.dataset import ImageDataset batch_size = 32num_epoch = 100z_dimension = 100dir_path = './wgan_img' # 创建文件夹if not os.path.exists(dir_path):  os.mkdir(dir_path)  def to_img(x):  """因为我们在生成器里面用了tanh"""  out = 0.5 * (x + 1)  return out  dataset = ImageDataset()dataloader = DataLoader(dataset, batch_size=32, shuffle=False)  class Generator(nn.Module):  def __init__(self):    super().__init__()     self.gen = nn.Sequential(      # 输入是一个nz维度的噪声,我们可以认为它是一个1*1*nz的feature map      nn.ConvTranspose2d(100, 512, 4, 1, 0, bias=False),      nn.BatchNorm2d(512),      nn.ReLU(True),      # 上一步的输出形状:(512) x 4 x 4      nn.ConvTranspose2d(512, 256, 4, 2, 1, bias=False),      nn.BatchNorm2d(256),      nn.ReLU(True),      # 上一步的输出形状: (256) x 8 x 8      nn.ConvTranspose2d(256, 128, 4, 2, 1, bias=False),      nn.BatchNorm2d(128),      nn.ReLU(True),      # 上一步的输出形状: (256) x 16 x 16      nn.ConvTranspose2d(128, 64, 4, 2, 1, bias=False),      nn.BatchNorm2d(64),      nn.ReLU(True),      # 上一步的输出形状:(256) x 32 x 32      nn.ConvTranspose2d(64, 3, 5, 3, 1, bias=False),      nn.Tanh() # 输出范围 -1~1 故而采用Tanh      # nn.Sigmoid()      # 输出形状:3 x 96 x 96    )   def forward(self, x):    x = self.gen(x)    return x   def weight_init(m):    # weight_initialization: important for wgan    class_name = m.__class__.__name__    if class_name.find('Conv') != -1:      m.weight.data.normal_(0, 0.02)    elif class_name.find('Norm') != -1:      m.weight.data.normal_(1.0, 0.02)  class Discriminator(nn.Module):  def __init__(self):    super().__init__()    self.dis = nn.Sequential(      nn.Conv2d(3, 64, 5, 3, 1, bias=False),      nn.LeakyReLU(0.2, inplace=True),      # 输出 (64) x 32 x 32       nn.Conv2d(64, 128, 4, 2, 1, bias=False),      nn.BatchNorm2d(128),      nn.LeakyReLU(0.2, inplace=True),      # 输出 (128) x 16 x 16       nn.Conv2d(128, 256, 4, 2, 1, bias=False),      nn.BatchNorm2d(256),      nn.LeakyReLU(0.2, inplace=True),      # 输出 (256) x 8 x 8       nn.Conv2d(256, 512, 4, 2, 1, bias=False),      nn.BatchNorm2d(512),      nn.LeakyReLU(0.2, inplace=True),      # 输出 (512) x 4 x 4       nn.Conv2d(512, 1, 4, 1, 0, bias=False),      nn.Flatten(),      # nn.Sigmoid() # 输出一个数(概率)    )   def forward(self, x):    x = self.dis(x)    return x   def weight_init(m):    # weight_initialization: important for wgan    class_name = m.__class__.__name__    if class_name.find('Conv') != -1:      m.weight.data.normal_(0, 0.02)    elif class_name.find('Norm') != -1:      m.weight.data.normal_(1.0, 0.02)  def save(model, filename="model.pt", out_dir="out/"):  if model is not None:    if not os.path.exists(out_dir):      os.mkdir(out_dir)    torch.save({'model': model.state_dict()}, out_dir + filename)  else:    print("[ERROR]:Please build a model!!!")  import QuickModelBuilder as builder if __name__ == '__main__':  one = torch.FloatTensor([1]).cuda()  mone = -1 * one   is_print = True  # 创建对象  D = Discriminator()  G = Generator()  D.weight_init()  G.weight_init()   if torch.cuda.is_available():    D = D.cuda()    G = G.cuda()   lr = 2e-4  d_optimizer = torch.optim.RMSprop(D.parameters(), lr=lr, )  g_optimizer = torch.optim.RMSprop(G.parameters(), lr=lr, )  d_scheduler = torch.optim.lr_scheduler.ExponentialLR(d_optimizer, gamma=0.99)  g_scheduler = torch.optim.lr_scheduler.ExponentialLR(g_optimizer, gamma=0.99)   fake_img = None   # ##########################进入训练##判别器的判断过程#####################  for epoch in range(num_epoch): # 进行多个epoch的训练    pbar = builder.MyTqdm(epoch=epoch, maxval=len(dataloader))    for i, img in enumerate(dataloader):      num_img = img.size(0)      real_img = img.cuda() # 将tensor变成Variable放入计算图中      # 这里的优化器是D的优化器      for param in D.parameters():        param.requires_grad = True      # ########判别器训练train#####################      # 分为两部分:1、真的图像判别为真;2、假的图像判别为假       # 计算真实图片的损失      d_optimizer.zero_grad() # 在反向传播之前,先将梯度归0      real_out = D(real_img) # 将真实图片放入判别器中      d_loss_real = real_out.mean(0).view(1)      d_loss_real.backward(one)       # 计算生成图片的损失      z = torch.randn(num_img, z_dimension).cuda() # 随机生成一些噪声      z = z.reshape(num_img, z_dimension, 1, 1)      fake_img = G(z).detach() # 随机噪声放入生成网络中,生成一张假的图片。 # 避免梯度传到G,因为G不用更新, detach分离      fake_out = D(fake_img) # 判别器判断假的图片,      d_loss_fake = fake_out.mean(0).view(1)      d_loss_fake.backward(mone)       d_loss = d_loss_fake - d_loss_real      d_optimizer.step() # 更新参数       # 每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c=0.01      for parm in D.parameters():        parm.data.clamp_(-0.01, 0.01)       # ==================训练生成器============================      # ###############################生成网络的训练###############################      for param in D.parameters():        param.requires_grad = False       # 这里的优化器是G的优化器,所以不需要冻结D的梯度,因为不是D的优化器,不会更新D      g_optimizer.zero_grad() # 梯度归0       z = torch.randn(num_img, z_dimension).cuda()      z = z.reshape(num_img, z_dimension, 1, 1)      fake_img = G(z) # 随机噪声输入到生成器中,得到一副假的图片      output = D(fake_img) # 经过判别器得到的结果      # g_loss = criterion(output, real_label) # 得到的假的图片与真实的图片的label的loss      g_loss = torch.mean(output).view(1)      # bp and optimize      g_loss.backward(one) # 进行反向传播      g_optimizer.step() # .step()一般用在反向传播后面,用于更新生成网络的参数       # 打印中间的损失      pbar.set_right_info(d_loss=d_loss.data.item(),                g_loss=g_loss.data.item(),                real_scores=real_out.data.mean().item(),                fake_scores=fake_out.data.mean().item(),                )      pbar.update()      try:        fake_images = to_img(fake_img.cpu())        save_image(fake_images, dir_path + '/fake_images-{}.png'.format(epoch + 1))      except:        pass      if is_print:        is_print = False        real_images = to_img(real_img.cpu())        save_image(real_images, dir_path + '/real_images.png')    pbar.finish()    d_scheduler.step()    g_scheduler.step()    save(D, "wgan_D.pt")    save(G, "wgan_G.pt")

上述内容就是怎么在Pytorch中利用WGAN生成动漫头像,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注编程网行业资讯频道。

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     807人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     351人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     314人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     433人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     221人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯