一、选择题(本大题共30小题,每小题1分,共30分).PDFVIP

一、选择题(本大题共30小题,每小题1分,共30分).PDF

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
“东方国信杯”高校大数据开发大赛试题 一、选择题(本大题共30 小题,每小题1 分,共30 分) 第一部分 人工智能 1. 用逻辑回归训练一个分类模型,下面哪个是正确的? A 在模型中引入正则化总是会对不在训练集里的数据有同样甚至更好的表现 B 在模型中引入正则化总是会对训练集里的数据有同样甚至更好的表现 C 在模型中增加一个新特征总是会对训练集里的数据有同样甚至更好的表现 D 在模型中增加很多新特征能帮助防止在训练集上过拟合 2. (多选)回归模型具有多重共线性时,在不损失太多信息的情况下如何应对这种情况? A 去除所有共线变量1.去除所有共线变量 B 去除一个变量而不是都去掉 C 我们可以计算VIF (方差膨胀因子)来检验多重共线性效应,然后根据情况处理 D 去除相关的变量可能会导致信息的丢失。为了保证数据的完整性,我们应该选取比如岭回归和套 索回归等惩罚回归模型。 3. (多选)解决一个二分类问题。然而我们并不是要得到0 或 1 的真实结果,而是要获取每一个类的概 率。现在假设我有一个概率模型,并且使用一个0.5 的阈值来预测结果,如果概率大于等于0.5,则认 为是1,如果小于0.5,我们则认为是0。如果我们使用一个比0.5 高的阈值,以下哪些正确? A 增加阈值那么分类器会有相同或者更低的查对率 B 增加阈值分类器会有更高的查对率 C 增加阈值会有相同或者更高的准确率 D 增加阈值会有更低的准确率 4. 将数据分成训练集、验证集,测试集,请问一下哪一个是最好的选择 ? A 训练集 600 万 验证集 100 万 测试集300 万 B 训练集 600 万 验证集 300 万 测试集100 万 C 训练集 950 万 验证集 25 万 测试集25 万 D 训练集 333 万 验证集 333 万 测试集333 万 5. 在第l(1=l=L)层的前向传播中,以下哪一个公式是正确的? [ ] [ ] [ ] [ ] [ ] [ ] A Z = + [+1] = ( ) [ ] [ ] [ ] [ ] [ ] [ ] B Z = −1 + [] = ( ) [ ] [ ] [ ] [ ] [ ] [ ] C Z = −1 + −1 [] = ( ) [ ] [ ] [ ] [ ] [ ] [ ] D Z = + [+1] = +1 ( ) 1 “东方国信杯”高校大数据开发大赛试题 6. 神经网络中,输入张量的体积是32*32*16,对其进行filter size=2, stride=2 的最大池化,输出张 量的体积是? A 16*16*8 B 32*32*8 C 16*16*16 D 15*15*16 7. 神经网络中,输入张量的体积是63*63*16,用32 个尺寸为7*7、步长为1 的卷积核对其进行卷积运 算,若想使得输出张量体积不变,则需要padding 的值为? A 1 B 2 C 3 D 7 8. 为何RNN 被用于机器翻译? A 它可以解决监督学习的问题 B 它比CNN 更有效 C 由于输入和输出都是一个序列(例如文字序列) D 由于RNN 代表了 “想法-代码-试验-想法-……”的循环过程 9

文档评论(0)

aa15090828118 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档