生成对抗网络S.pptxVIP

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

生成式对抗网络GAN

非监督学习及GAN非监督学习:训练集没有标注,学习的结果是数据的隐含规律,表现形式可以使数据按相似性分组、数据的分布、数据分量间的关联规则,最主要的是探讨非监督学习中的聚类问题。GAN是IanGoodfellow在2014年的经典之作,在许多地方作为非监督深度学习的代表作给予推广。GAN解决了非监督学习中的著名问题:给定一批样本,训练一个系统,能够生成(generate)类似的新样本。

生成方法通过观测数据学习样本与标签的联合概率分布P(X,Y),训练好的模型能够生成符合样本分布的新数据,它可以用于有监督学习和无监督学习。判别方法由数据直接学习决策函数f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。生成方法和判别方法深度信念网络(DBN)是由一组受限玻尔兹曼机(RBMs)堆叠而成的深度生成式网络,它的核心部分是贪婪的、逐层学习的算法,这种算法可以最优化深度置信网络的权重。以无监督方式预训练的生成式模型(DBN)可以提供良好的初始点,然后通过有监督的反向传播算法微调权值早期深层生成模型由生成器和判别器组成,生成器生成满足目标分布映射关系的新样本,判别器用来区别实际数据分布和生成器产生的数据分布。生成模型生成式对抗网络GAN

深度信念网络包括可见神经元和隐形神经元。可见单元用于接受输入,隐单元用于提取特征。通过训练神经元之间的权重,不仅可以用来识别特征、分类数据,还可以让整个神经网络按照最大概率来生成训练数据。深度信念网络连接是无向的数据向量 训练过程如下:利用输入样本数据生成第一个RBM,得到其特征。利用1得到的特征生成第二个RBM,得到特征的特征。依此循环,可以得到多个限制玻尔兹曼机。把得到的多个限制玻尔兹曼机堆叠起来,构成一个DBN。

以MNIST数据集的数字识别和生成为例,其输入是28*28的图片,输出是0到9的数字,如下图所示。在经过前述的贪婪堆叠训练后,再加一层标签层(0?9数字)进行训练。然后再利用Wake-Sleep算法进行调优。深度信念网络案例Wake阶段自底向上训练,学习特征和向上的权重产生每一层的抽象表示,并将特征以参数权重的形式固定在神经元结点上,同时使用梯度下降更新下行权重;Sleep阶段是自顶向下训练,是一个生成过程,通过顶层表示和下行权重,生成底层的状态,同时修改层间向上的权重。在模型训练完成后,如果对最顶上的两层进行随机的吉布斯采样,然后再逐渐从顶到底,就可以生成数字0~9中的一个图像。来源:/2015xli/DBN

AutoEncoder形式Reference:/wiki/AutoencoderReference:.tw/~tlkagk/缺点:多样性差通过控制输入向量,生成不同的类别的图像

变分自编码器(VariationalAutoencoders,VAE)增加限制,防止方差变成0,从而VAE演变为AE缺点:评价标准是基于像素比较,生成图像质量偏差Reference:/variational-autoencoders-explained/

GAN对抗网络:使用两个网络互相竞争,称之为对抗式(adversarial)结构随机向量随机取样

GAN生成过程演示NNGeneratorv1Discri-minatorv1Realimages:NNGeneratorv2Discri-minatorv2NNGeneratorv3Discri-minatorv3Reference:.tw/~tlkagk/

通过优化目标,调节概率生成模型的参数,使生成的概率分布和真实数据分布尽量接近。样本的数据分布存在于神经网络的模型参数中,没有显示的表达式。生成式对抗网络--如何定义损失

GAN损失函数这个Loss其实就是交叉熵。对于判别器D,它的任务是最小化-L(G,D),即如果采用零和博弈,生成器G的目标是最小化L(G,D),而实际操作发现零和博弈训练效果并不好,G的目标一般采用最小化一般来说,更新D时,G是固定的;更新G时,D是固定的。或

黑色大点虚线P(X)是真实的数据分布A.Pg和Pdata相似,D是部分精确的分类器绿线G(z)是通过生成模型产生的数据分布(输入是均匀分布变量z,输出是绿色的线)B.D被训练以区分样本和数据,并收敛到蓝色的小点虚线D(X)代表判别函数C.在更新g之后,d的梯度引导g(Z)流向更有可能被归类为数据的区域。较低的水平线是z采样的区域,在这种情况下,上面的水平线是X域的一部分。向上箭头显示映射x=g(Z)如何将非均匀分布的pg强加于转换后的样本上。g在高密度区域收缩,在pg低密度区域扩展。D.产生的绿色分布和真实数

文档评论(0)

idowen + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档