人工智能深度学习知识重点.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

综合试卷第=PAGE1*2-11页(共=NUMPAGES1*22页) 综合试卷第=PAGE1*22页(共=NUMPAGES1*22页)

PAGE

姓名所在地区

姓名所在地区身份证号

密封线

注意事项

1.请首先在试卷的标封处填写您的姓名,身份证号和所在地区名称。

2.请仔细阅读各种题目的回答要求,在规定的位置填写您的答案。

3.不要在试卷上乱涂乱画,不要在标封区内填写无关内容。

一、单选题

1.下列哪项不属于深度学习中的常用激活函数?

A.Sigmoid

B.ReLU

C.tanh

D.Softmax

2.以下哪项是深度学习中的常见优化算法?

A.动量梯度下降

B.梯度提升决策树

C.K最近邻

D.支持向量机

3.以下哪项不是卷积神经网络(CNN)中的卷积层的作用?

A.对输入特征图进行局部感知

B.通过卷积核提取特征

C.对特征图进行降维

D.将特征图映射到输出空间

4.以下哪项是循环神经网络(RNN)中的门控循环单元(GRU)的作用?

A.解决长期依赖问题

B.提高网络的计算效率

C.减少网络参数

D.以上都是

5.以下哪项是对抗网络(GAN)中器的作用?

A.与真实数据分布相似的样本

B.学习真实数据的特征

C.与判别器对抗,高质量的样本

D.以上都是

答案及解题思路:

答案:

1.D

2.A

3.D

4.D

5.D

解题思路:

1.Sigmoid、ReLU和tanh都是深度学习中的常用激活函数,它们被用于神经网络中为非线性增加。而Softmax是一个输出层常用的激活函数,用于多分类问题,因此D选项不属于常用激活函数。

2.动量梯度下降是深度学习中最常见的优化算法,它结合了学习率和之前梯度的动量来加速学习过程。梯度提升决策树、K最近邻和支持向量机则不是用于深度学习中的优化算法,它们分别是集成学习方法、分类算法和回归算法。

3.卷积神经网络中的卷积层主要有三个作用:对输入特征图进行局部感知、通过卷积核提取特征以及对特征图进行降维。但是将特征图映射到输出空间并不是卷积层的作用,这通常由全连接层等后续层来完成。

4.门控循环单元(GRU)在循环神经网络(RNN)中的作用是多方面的:它解决了长期依赖问题,通过门控机制提高网络的计算效率,同时减少了网络参数。因此,所有选项A、B、C都是GRU的作用。

5.对抗网络(GAN)中的器主要有两个作用:一是与真实数据分布相似的样本,二是与判别器对抗,高质量的样本。因此,选项D是正确的,因为器确实包括了这两个作用。

二、多选题

1.深度学习中的常见损失函数包括:

A.交叉熵损失

B.均方误差损失

C.热力分布损失

D.对数损失

2.以下哪些是深度学习中的正则化方法?

A.L1正则化

B.L2正则化

C.Dropout

D.EarlyStopping

3.以下哪些是深度学习中常用的激活函数?

A.Sigmoid

B.ReLU

C.tanh

D.ELU

4.以下哪些是卷积神经网络(CNN)中的卷积层的作用?

A.对输入特征图进行局部感知

B.通过卷积核提取特征

C.对特征图进行降维

D.将特征图映射到输出空间

5.以下哪些是循环神经网络(RNN)中的常见结构?

A.长短期记忆网络(LSTM)

B.门控循环单元(GRU)

C.普通循环单元(RNN)

D.稀疏循环单元(SRU)

答案及解题思路:

1.答案:A,B,D

解题思路:交叉熵损失和均方误差损失是常见的损失函数,用于分类和回归问题。对数损失是交叉熵损失的一种特定形式,通常用于二分类问题。而热量分布损失并不是一个常见的损失函数。

2.答案:A,B,C,D

解题思路:L1正则化和L2正则化是深度学习中常用的正则化方法,用于防止模型过拟合。Dropout和EarlyStopping也是深度学习中的正则化方法,Dropout通过随机丢弃部分神经元来增加模型的鲁棒性,EarlyStopping通过停止训练来避免模型过拟合。

3.答案:A,B,C,D

解题思路:Sigmoid、ReLU、tanh和ELU都是深度学习中常用的激活函数。Sigmoid将输入压缩到(0,1)区间,ReLU将输入设置为正值或零,tanh将输入压缩到(1,1)区间,ELU是一种非线性激活函数,它将输入设置为正值或负值的指数函数。

4.答案:A,B,C

解题思路:卷积层是CNN中的基本结构,其作用是对输入特征图进行局部感知,

文档评论(0)

187****9041 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档