- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
试卷科目:
人工智能机器学习技术练习(习题卷8)
第1部分:单项选择题,共155题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]如果一个 SVM 模型出现欠拟合,那么下列哪种方法能解决这一问题?
A)增大惩罚参数 C 的值
B)减小惩罚参数 C 的值
C)减小核系数(gamma参数)
答案:A
解析:
2.[单选题]以下哪项是解决NLP用例(如语义相似性、阅读理解和常识推理)的更好选择?
A)ELMo
B)Open AI’s GPT
C)ULMFit
答案:B
解析:
3.[单选题]如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?
A)测试样本误差始终为零
B)测试样本误差不可能为零
C)以上答案都不对
答案:C
解析:根据训练样本误差为零,无法推断测试样本误差是否为零。值得一提是,如果测试样本样本很大,则很可能发生
过拟合,模型不具备很好的泛化能力!
4.[单选题]特征归约主要是为了进行特征的()
A)缺失值处理
B)一致性处理
C)异常值处理
答案:B
解析:
5.[单选题]所谓几率,是指发生概率和不发生概率的比值。所以,抛掷一枚正常硬币,正面朝上的几率(odds)为多少?
A)0.5
B)1
C)都不是
答案:B
解析:几率(odds)是事件发生不发生概率的比率,正面朝上概率为1/2和反面朝上的概率都为1/2,所以几率为1。
6.[单选题](__)不属于机器学习理论基础。
A)数据科学
B)哲学
C)心理学
D)人工智能
答案:A
解析:
题卷 1/42
试卷科目:
7.[单选题]下面属于Boosting方法的特点是( )
A)构造训练集时采用Bootstraping的方式
B)每一轮训练时样本权重相同
C)分类器可以并行训练
D)预测结果时,分类器的比重不同
答案:D
解析:
8.[单选题]能够直观显示出学习器在样本总体上的查全率、查准率的图是()。
A)ROC曲线
B)误差曲线
C)方差曲线
D)P-R曲线
答案:D
解析:
9.[单选题]训练SVM的最小时间复杂度为O(n2),那么一下哪种数据集不适合用SVM?
A)大数据集
B)小数据集
C)中等大小数据集
D)和数据集大小无关
答案:A
解析:有明确分类边界的数据集最适合SVM
10.[单选题]在HSV色彩空间中的H表示色调,则其取值范围在()。
A)[0,255]
B)[0,256]
C)[0,180]
D)[0,181]
答案:C
解析:
11.[单选题]已知数组trans_cnt[1,2,3,4],以下哪一个表达式是求数组的元素数量:
A)type(trans_cnt)
B)length(trans_cnt)
C)coalesce(trans_cnt)
D)size(trans_cnt)
答案:D
解析:
12.[单选题]在CTR(点击率预测)中,对于一个特定商品,一个用户可以根据过往的点击商品等信息被归为两类【会点击
】和【不会点击】。CTR问题适合用()方法来解决
A)分类
B)回归
C)聚类
D)以上都不是
答案:A
解析:
13.[单选题]在创建ndarray对象时,可以使用( )参数来指定元素类型。
A)dtype
题卷 2/42
试卷科目:
B)dtypes
C)type
D)types
答案:A
解析:
14.[单选题]我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以 :
A)增加树的深度
B)增加学习率 (learning rate)
C)减少树的深度
D)减少树的数量
答案:C
解析:增加树的深度, 会导致所有节点不断分裂, 直到叶子节点是纯的为止. 所以, 增加深度, 会延长训练
原创力文档


文档评论(0)