一文读懂生成对抗网络GANs(附学习资源).pdf

一文读懂生成对抗网络GANs(附学习资源).pdf

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
. 一文读懂生成对抗网络 GANs (附学习资源) 原文标题: AnIntuitive Introduction to Generative Adversarial Networks 作者:KeshavDhandhania 、ArashDelijani 翻译:申利彬校对:和中华本文约 4000 字,建议阅读 10 分 钟。 本文以图像生成问题引出 GAN 模型, 并介绍了 GAN 模型的 数学原理和训练过程,最后提供了丰富的 GAN 学习资料。 本文讨论生成对抗网络,简称 GANs 。在生成任务或更广泛 的无监督学习中, GANs 是为数不多在此领域表现较好的机 器学习技术之一。特别是他们在图像生成相关任务上拥有出 色表现。深度学习领域先驱 Yann LeCun ,称赞 GAN 是机器 学习近十年来最好的想法。 最重要的是, GAN 相关核心概念 很容易理解(事实上,读完本文后你就可以对它有个清晰的 认识)。 我们将 GANs 应用在图像生成任务中, 并以此来解释 GANs , 下面是本文的概要: 简单回顾深度学习图像生成问题生成任务中的关键问题生 成对抗网络挑战进一步阅读总结 简单回顾深度学习 (前馈)神经网络示意图,棕色为输入层,黄色为隐藏层, 红色为输出层 我们先简单介绍一下深度学习。上图是神经 网络示意图,它是由神经元组成,神经元之间通过边相互连 . . 接,而且神经元按层排列,中间为隐藏层,输入层和输出层 分别在左右两侧。神经元之间的连接边都有权重,每一个神 经元都会根据与其连接的神经元的输入值加权求和,然后带 入非线性激活函数中计算,这类激活函数有 Sigmoid 和 ReLU。例如, 第一层隐藏层神经元对来自输入层神经元的值 进行加权求和,然后再应用 ReLU 函数。激活函数引入了非 线性,它使神经网络可以模拟复杂的现象(多个线性层等价 于一个线性层) 。 给一个特定的输入,我们依次计算每个神 经元输出的值(也称为神经元的活性) 。从左到右,我们利 用前层计算好的值来逐层计算,最后得到输出层的值。然后 根据输出层的值和期望值(目标值)定义一个损失函数,例 如,均方误差损失函数。其中, x 是输入, h (x )是输出, y 是目标值,总和包含数据集中所有数据点。 在每步中,我 们的目标是以合适的数值优化每条边的权重,从而尽可能降 低损失函数的大小。我们计算出梯度值,然后利用梯度具体 优化每一个权重。当我们计算出损失函数值,就可以用反向 传播算法计算梯度。反向传播算法的主要结果是:利用链式 求导法则和后一层参数的梯度值来计算这层的梯度。然后, 我们通过与各个梯度成比例的量(即梯度下降)来更新每个 权重。 如果你想要进一步了解神经网络和反向传播算法的 细节,我推荐你阅读 Nikhil Buduma 写的简单学习深度学习 (Deep Learning in aNutshell ) . . nikhilbuduma./2014/12/29/deep-learning-in-a-nutshell/ 图像生成问题 图像生成问题上,我们希望机器学习模型可以生成图像

文档评论(0)

tianya189 + 关注
官方认证
内容提供者

该用户很懒,什么也没介绍

认证主体阳新县融易互联网技术工作室
IP属地上海
统一社会信用代码/组织机构代码
92420222MA4ELHM75D

1亿VIP精品文档

相关文档