机器学习与深度学习常见面试题(上).PDF

机器学习与深度学习常见面试题(上).PDF

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
机器学习与深度学习常见面试题(上).PDF

SIGAI 人工智能平台 机器学习与深度学习常见面试题(上) 一年一度的校园招聘已经开始了,为了帮助参加校园招聘、社招的同学更好的准备面试, SIGAI 整理出了一些常见的机器学习、深度学习面试题。理解它们,对你通过技术面试非常 有帮助,当然,我们不能只限于会做这些题目,最终的目标是真正理解机器学习与深度学习 的原理、应用。 1.比较Boosting 和 Bagging 的异同 二者都是集成学习算法,都是将多个弱学习器组合成强学习器的方法。 Bagging:从原始数据集中每一轮有放回地抽取训练集,训练得到 k 个弱学习器,将这 k 个 弱学习器以投票的方式得到最终的分类结果。 Boosting:每一轮根据上一轮的分类结果动态调整每个样本在分类器中的权重,训练得到 k 个弱分类器,他们都有各自的权重,通过加权组合的方式得到最终的分类结果。 2.无监督学习中存在过拟合吗? 存在。我们可以使用无监督学习的某些指标或人为地去评估模型性能,以此来判断是否过拟 合。 3.什么是 k 折交叉验证? 将原始数据集划分为 k 个子集,将其中一个子集作为验证集,其余 k-1 个子集作为训练集, 如此训练和验证一轮称为一次交叉验证。交叉验证重复 k 次,每个子集都做一次验证集,得 到 k 个模型,加权平均 k 个模型的结果作为评估整体模型的依据。 4.关于 k 折交叉验证,需要注意什么? k 越大,不一定效果越好,而且越大的 k 会加大训练时间;在选择 k 时,需要考虑最小化数 据集之间的方差,比如对于 2 分类任务,采用 2 折交叉验证,即将原始数据集对半分,若此 时训练集中都是 A 类别,验证集中都是 B 类别,则交叉验证效果会非常差。 5.对于一个二分类问题,我们定义超过阈值 t 的判定为正例,否则判定为负例。现在若将 t 增大,则准确率和召回率会如何变化? 准确率 = TP / (TP + FP),召回率 = TP / (TP + FN),其中 TP 表示将正例正确分类为正 例的数量,FP 表示将负例错误分类为正例的数量,FN 表示将正例错误分类为负例的数量。 准确率可以理解为在所有分类为正例的样品中,分类正确的样本所占比例;召回率可以理解 为在所有原始数据集中的正例样品中,正确挑出的正例样本的比例。 SIGAI 人工智能平台 因此若增大阈值 t,更多不确定(分类概率较小)的样本将会被分为负例,剩余确定(分类 概率较大)的样本所占比例将会增大(或不变),即正确率会增大(或不变);若增大阈值 t, 则可能将部分不确定(分类概率较小)的正例样品误分类为负例,即召回率会减小(或不变)。 6.以下关于神经网络的说法中,正确的是( )? A.增加网络层数,总能减小训练集错误率 B.减小网络层数,总能减小测试集错误率 C.增加网络层数,可能增加测试集错误率 C。增加神经网络层数,确实可能提高模型的泛化性能,但不能绝对地说更深的网络能带来 更小的错误率,还是要根据实际应用来判断,比如会导致过拟合等问题,因此只能选 C。 7.说明 Lp 范数间的区别 L1 范数:向量中各个元素绝对值之和 L2 范数:向量中各个元素平方和的开二次方根 Lp 范数:向量中各个元素绝对值的 p 次方和的开 p 次方根 8.用梯度下降训练神经网络的参数,为什么参数有时会被训练为 nan 值? 输入数据本身存在 nan 值,或者梯度爆炸了(可以降低学习率、或者设置梯度的阈值) 9.卷积神经网络 CNN 中池化层有什么作用? 减小图像尺寸即数据降维,缓解过拟合,保持一定程度的旋转和平移不变性。 10.请列举几

文档评论(0)

sunyangbill + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档