- 1、本文档共27页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
人工智能核心算法模拟题+答案
一、单选题(共44题,每题1分,共44分)
1.根据操作的反馈总结更好的策略,这个过程抽象出来,就是(___)
A、强化学习
B、强化训练
C、加强训练
D、加强学习
正确答案:A
2.下面关于随机森林和集成学习的说法,正确的是()
A、随机森林只能用于解决分类问题
B、集成学习通过构建多个模型,并将各个模型的结果使用求平均数的方法集成起来,作为最终的预测结果,提高分类问题的准确率
C、随机森林由随机数量的决策树组成
D、随机森林的弱分类器(基分类器)的特征选择不是随机的
正确答案:B
3.以下不是贝叶斯回归的优点的是哪一项
A、贝叶斯回归的推断速度快
B、它能根据已有的数据进行改变
C、它能在估计过程中引入正则项
正确答案:A
4.某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题()
A、聚类
B、分类
C、自然语言处理
D、关联规则发现
正确答案:D
5.假设我们有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNORfunction)吗
A、可以
B、不好说
C、不一定
D、不能
正确答案:D
6.假设我们已经在ImageNet数据集(物体识别)上训练好了一个卷积神经网络。然后给这张卷积神经网络输入一张全白的图片。对于这个输入的输出结果为任何种类的物体的可能性都是一样的,对吗?
A、不对
B、对的
C、不知道
D、看情况
正确答案:A
7.在一个神经网络中,下面哪种方法可以用来处理过拟合?
A、Dropout
B、分批归一化(BatchNormalization)
C、正则化(regularization)
D、都可以
正确答案:D
8.下列哪一个不是无约束算法。
A、启发式优化方法
B、拟牛顿法
C、梯度下降法
D、EM算法
正确答案:D
9.在pytorch中,如果主机有1块TitanX显卡,以下哪个选项中的代码都可以将变量名为var的tensor放在GPU上运行
A、var=var.to(cuda:1)
B、var=var.to(cuda:0)、var=var.to(cuda:1)
C、var=var.cuda()、var=var.to(cuda:1)
D、var=var.cuda()、var=var.to(cuda:0)
正确答案:D
10.DilatedConvolution意思是?
A、空洞卷积
B、黑洞卷积
C、细节卷积
D、返向卷积
正确答案:A
11.Relu在零点不可导,那么在反向传播中怎么处理()
A、设为0
B、设为任意值
C、不定义
D、设为无穷大
正确答案:A
12.强化学习是()领域的一类学习问题
A、机器学习
B、自然语言处理
C、nlp
D、cv
正确答案:A
13.语句np.sum(arr3,axis=1)的作用是()?注:(已导入numpy库)importnumpyasnp
A、对每一行求和
B、对第1列求和
C、对整个数组求和
D、对每一列求和
正确答案:A
14.ResNet-50有多少个卷积层?()
A、51
B、49
C、48
D、50
正确答案:B
15.支持向量机(SVM)中的代价参数C表示什么?()
A、交叉验证的次数
B、用到的核函数
C、在分类准确性和模型复杂度之间的权衡
D、以上都不对
正确答案:C
16.与生成方法、半监督SVM、图半监督学习等基于单学习机器利用未标记数据不同,基于分歧的方法(disagreement-basedmethods)使用多学习器,而学习器之间的“分歧”(disagreement)对未标记数据的利用至关重要。(___)是此类方法的重要代表
A、陪同训练
B、协同训练
C、组合训练
D、配合训练
正确答案:B
17.独热编码的缺点是:①.过于稀疏②.词与词的相关性比较小③.易于编码④.容易存储
A、②④
B、①③
C、①②
D、③④
正确答案:C
18.GooLeNet中使用较多小tricks,其中全局平局池化GAP就是一个,使用GAP的优点是()
A、提供更好的分类
B、减少参数量,实现任意大小的输入
C、加速模型收敛
D、增加网络深度
正确答案:B
19.考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个预先训练好的网络?
A、把除了最后一层外所有的层都冻结,重新训练最后一层
B、对新数据重新训练整个模型
C、只对最后几层进行调参(finetune)
D、对每一层模型进行评估,选择其中的少数来用
正确答案:C
20.神经网络训练过程中,一般会遇到停滞期,即神
文档评论(0)