深度学习100题(转).pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

深深度度学学习习100题题((转转))

深深度度学学习习100题题((转转))

来源:

1、、梯梯度度下下降降算算法法的的正正确确步步骤骤是是什什么么??

a.计算预测值和实值之间的误差

b.重复迭代,直⾄得到⽹络权重的最佳值

c.把输⼊传⼊⽹络,得到输出值

d.⽤随机值初始化权重和偏差

e.对每⼀个产⽣误差的神经元,调整相应的(权重)值以减⼩误差

A.abcdeB.edcbaC.cbaedD.dcaeb

解析:正确答案D,考查知识点-深度学习。

2、、已已知知::

-⼤脑是有很多个叫做神经元的东西构成,神经⽹络是对⼤脑的简单的数学表达。

-每⼀个神经元都有输⼊、处理函数和输出。

-神经元组合起来形成了⽹络,可以拟合任何函数。

-为了得到最佳的神经⽹络,我们⽤梯度下降⽅法不断更新模型

给定上述关于神经⽹络的描述,什么情况下神经⽹络模型被称为深度学习模型?

A.加⼊更多层,使神经⽹络的深度增加

B.有维度更⾼的数据

C.当这是⼀个图形识别的问题时

D.以上都不正确

解析:正确答案A,更多层意味着⽹络更深。没有严格的定义多少层的模型才叫深度模型,⽬前如果有超过2层的隐层,那么也可以及叫做深

度模型。

3、、训训练练CNN时时,,可可以以对对输输⼊⼊进进⾏⾏旋旋转转、、平平移移、、缩缩放放等等预预处处理理提提⾼⾼模模型型泛泛化化能能⼒⼒。。这这么么

说说是是对对,,还还是是不不对对??

A.对B.不对

解析:对。如寒sir所说,训练CNN时,可以进⾏这些操作。当然也不⼀定是必须的,只是dataaugmentation扩充数据后,模型有更多数据

训练,泛化能⼒可能会变强。

4、、下下⾯⾯哪哪项项操操作作能能实实现现跟跟神神经经⽹⽹络络中中Dropout的的类类似似效效果果??

A.BoostingB.BaggingC.StackingD.Mapping

解析:正确答案B。Dropout可以认为是⼀种极端的Bagging,每⼀个模型都在单独的数据上训练,同时,通过和其他模型对应参数的共享,

从⽽实现模型参数的⾼度正则化。

5、、下下列列哪哪⼀⼀项项在在神神经经⽹⽹络络中中引引⼊⼊了了⾮⾮线线性性??

A.随机梯度下降

B.修正线性单元(ReLU)

C.卷积函数

D.以上都不正确

解析:正确答案B。修正线性单元是⾮线性的激活函数。

6、、CNN的的卷卷积积核核是是单单层层的的还还是是多多层层的的??

解析:

⼀般⽽⾔,深度卷积⽹络是⼀层⼜⼀层的。层的本质是特征图,存贮输⼊数据或其中间表⽰值。⼀组卷积核则是联系前后两层的⽹络参数表

达体,训练的⽬标就是每个卷积核的权重参数组。

描述⽹络模型中某层的厚度,通常⽤名词通道cannel数或者特征图featuremap数。不过⼈们更习惯把作为数据输⼊的前层的厚度称之为通

道数(⽐如RGB三⾊图层称为输⼊通道数为3),把作为卷积输出的后层的厚度称之为特征图数。

卷积核(filter)⼀般是3D多层的,除了⾯积参数,⽐如3x3之外,还有厚度参数H(2D的视为厚度1).还有⼀个属性是卷积核的个数N。

卷积核的厚度H,⼀般等于前层厚度M(输⼊通道数或featuremap数).特殊情况MH。

卷积核的个数N,⼀般等于后层厚度(后层featuremaps数,因为相等所以也⽤N表⽰)。

卷积核通常从属于后层,为后层提供了各种查看前层特征的视⾓,这个视⾓是⾃动形成的。

卷积核厚度等于1时为2D卷积,对应平⾯点相乘然后把结果加起来,相当于点积运算;

卷积核厚度⼤于1时为3D卷积,每⽚分别平⾯点求卷积,然后把每⽚结果加起来,作为3D卷积结果;1x1卷积属于3D卷积的⼀个特例,有厚

度⽆⾯积,直接把每⽚单个点乘以权重再相加。

归纳之,卷积的意思就是把⼀个区域,不管是⼀维线段,⼆维⽅阵,还是三维长⽅块,全部按照卷积核的维度形状,对应逐点相乘再求和,

浓缩成⼀个标量值也就是降到零维度,作为下⼀层的⼀个featuremap的⼀个点的值!

可以⽐喻⼀群渔夫坐⼀个渔船撒⽹打鱼,鱼塘是多层⽔域,每层鱼⼉不同。

船每次移位⼀个stride到⼀个地⽅,每个渔夫撒⼀⽹,得到收获,然后换⼀个距离stride再撒,如此重复直到遍历鱼塘。

A渔夫盯着鱼的品种,遍历鱼塘后该渔夫描绘了鱼塘的鱼品种分布;

B渔夫盯着鱼的重量,遍历鱼塘后该渔夫描绘了鱼塘的鱼重量分布;

还有N-2个渔夫,各⾃兴趣各⼲各的;

最后得到N个特征图,描述了鱼塘的⼀切!

2D卷积表⽰渔夫的⽹就是带⼀

文档评论(0)

idowen + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档