- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
试卷科目:
人工智能机器学习技术练习(习题卷2)
说明:答案和解析在试卷最后
第1部分:单项选择题,共62题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]我们常用()版。
A)apache版
B)cdh版
C)Hortonworks版本
2.[单选题]现在有一份数据,你随机的将数据分成了n份,然后同时训练n个子模型,再将模型最后相结合得到一个强学
习器,这属于boosting方法吗
A)是
B)不是
C)不确定
3.[单选题]对于非概率模型而言,可按照判别函数线性与否分成线性模型与非线性模型。下面哪个模型不属于线性模型
?
A)感知机
B)AdaBoost
C)K-means
D)k近邻
4.[单选题]下列选项中,()是基于Web的交互式计算环境,可以编辑易于人们阅读的文档,用于展示数据分析的过程
。
A)JupyterNotebook
B)AncondaNavigator
C)AncondaPrompt
D)Spyder
5.[单选题]为了观察测试Y与X之间的线性关系,X是连续变量,使用下列哪种图形比较适合?
A)散点图
B)柱形图
C)直方图
D)以上都不对
6.[单选题]()是指数据减去一个总括统计量或模型拟合值时的残余部分
A)极值
B)标准值
C)平均值
D)残值
7.[单选题]在抽样方法中,当合适的样本容量很难确定时,可以使用的抽样方法是:
A)有放回的简单随机抽样
题卷21/1
试卷科目:
B)无放回的简单随机抽样
C)分层抽样
D)渐进抽样
8.[单选题]在留出法、交叉验证法和自助法三种评估方法中,()更适用于数据集较小、难以划分训练集和测试集的情况
。
A)留出法
B)交叉验证法
C)自助法
D)留一法
9.[单选题](__)先将数据集中的每个样本看做一个初始聚类簇,然后在算法运行的每一步找到距离最近的两个聚类簇
进行合并,该过程不端重复,直至达到预设的聚类簇个数。
A)原型聚类
B)密度聚类
C)层次聚类
D)AGNES
10.[单选题](__)是广义线性模型在g(·)=ln(·)时的特例。
A)线性模型
B)线性回归
C)线性判别分析
D)对数线性回归
11.[单选题]下列对于PCA说法:
①我们须在使用PCA前标准化数据;
②我们应该选择使得模型有最大variance的主成分;
③我们应该选择使得模型有最小variance的主成分;
④我们可以使用PCA在低维度上做数据可视化。正确的是()。
A)①、②、④
B)②、④
C)③、④
D)①、③
12.[单选题]下列表示设置绘制图像大小正确的是()。
A)plt.figure(figsize=(10,6))
B)plt.figure(figsize={10,6})
C)plt.figure(10,6)
D)plt.figure(figsize=[10,6])
13.[单选题]隐马尔可夫模型是一种著名的(__)模型。
A)无向图
B)有向图
C)树形图
D)环形图
14.[单选题]以下有关神经网络的说法错误的是()
A)MP模型在隐藏层和输出层都对神经元进行激活函数处理
B)使用多层功能神经元可以解决非线性可分问题
C)神经网络“学”到的东西,蕴含在连接权值和阈值中
D)BP算法基于梯度下降策略
题卷22/1
试卷科目:
15.[单选题]下列的数组统计计算中,用于计算数组中最大值的方法是()。
A)max
B)maximum
C)min
D)maximal
16.[单选题]下列
文档评论(0)