2025监督学试题及答案判断.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

2025监督学试题及答案判断

1.监督学习的本质是通过最小化经验风险来逼近真实风险,因此只要训练样本足够大,模型就一定不会过拟合。

答案:错误。

详解:经验风险最小化只保证在训练集上误差低,真实风险还取决于假设空间的复杂度与数据分布的匹配度。当假设空间容量远大于数据量时,即使样本“看起来”很多,仍可能发生过拟合。VC维理论指出,泛化误差上界同时与样本量、VC维及置信水平相关,仅靠增大样本而不控制模型复杂度无法根除过拟合。

2.在梯度下降中,当目标函数为凸函数时,随机梯度下降(SGD)的收敛速度一定比批量梯度下降(BGD)慢。

答案:错误。

详解:BGD每次迭代使用全量数据,更新方向噪声小但单次迭代代价高;SGD单次迭代仅随机抽取一个样本,方向噪声大却可高频更新。对于强凸且光滑函数,BGD达到ε-精度需O(log(1/ε))次迭代,SGD需O(1/ε)次迭代,看似更慢;但若以“达到相同精度所需计算时间”而非“迭代次数”衡量,当数据量极大时,SGD的低单次代价使其在wall-clock时间上反而更快。此外,SGD的噪声有助于逃离浅层局部极小,对非严格凸问题亦可能加速。

3.使用L1正则化的线性回归模型,其解路径在正则化参数λ从大到小变化时,变量是逐个进入模型的,且进入顺序与变量边际相关性完全一致。

答案:错误。

详解:L1正则化确实产生稀疏解,变量进入顺序由“相关性”与“当前残差”共同决定,即LARS算法中的“最大角”准则。由于变量间存在共线性,后进入的变量可能因与已选变量形成更好解释方向而“插队”,因此顺序并不简单等同于边际相关系数绝对值排序。

4.对于二分类问题,若正负类样本比例严重失衡(如1:99),则直接以准确率(accuracy)作为评价指标会导致模型倾向预测为负类。

答案:正确。

详解:准确率=(TP+TN)/(TP+TN+FP+FN)。当负类占99%时,模型若全部预测为负,准确率仍高达99%,看似优异却完全丧失正类识别能力。此时应采用F1、AUC-ROC、AUC-PR或加权损失函数,以代价敏感方式平衡精度与召回。

5.在随机森林中,增加树的数量总能降低测试误差,且不会引入过拟合。

答案:错误。

详解:随机森林的泛化误差随树数增加呈单调递减,但存在渐近上限;当树数足够大后,测试误差趋于稳定而不再下降。由于单棵树为低偏差高方差模型,平均可抵消方差,但树数继续增加不会导致过拟合“反弹”。然而,若单棵树深度不加限制且特征子空间过大,整体方差仍可能偏高,表现为“欠最优”而非“过拟合”。因此“不会引入过拟合”表述过于绝对。

6.深度神经网络使用ReLU激活函数时,一定不会出现梯度消失问题。

答案:错误。

详解:ReLU在正区间梯度为1,可缓解传统sigmoid的梯度指数级衰减;但在负区间梯度为0,若权重初始化不当或学习率过高,可能导致大量神经元“死亡”,即永久输出0,梯度无法回传,表现为“梯度消失”的另一种形式——稀疏激活崩溃。此外,极深网络即使使用ReLU,其梯度范数仍可能因矩阵连乘而指数级缩小(梯度范数衰减),故仍需残差连接、LayerNorm等手段稳定训练。

7.支持向量机(SVM)的核函数必须满足Mercer条件,否则模型无法训练。

答案:错误。

详解:Mercer条件保证核矩阵半正定,从而原优化问题为凸二次规划,解唯一且对偶问题强对偶成立。然而,实际工程中存在非正定核(如某些自定义相似度),仍可通过非凸优化或正则化技巧求解,只是失去理论保证,可能陷入局部极小或出现数值不稳定。因此“无法训练”过于绝对。

8.在K均值聚类中,增加聚类中心数K一定能使惯性(inertia)指标单调下降,因此可通过“肘部法则”确定最优K。

答案:错误前半句正确,后半句错误。

详解:惯性为样本到所属中心平方和,增加K必使惯性单调不增,但“肘部法则”仅提供经验拐点,并无理论最优保证。高维数据或稀疏分布时,惯性曲线常呈平滑下降,无明显肘部;且真实簇数可能因密度差异而无法通过惯性捕捉。需结合silhouette、gapstatistic、稳定性或领域知识综合判断。

9.若两个随机变量X与Y互信息I(X;Y)=0,则它们一定统计独立。

答案:正确。

详解:互信息I(X;Y)=D_KL(P(X,Y)||P(X)P(Y)),为零当且仅当联合分布等于边缘分布乘积,即独立。该结论对连续与离散变量均成立。

10.主成分分析(PCA)降维后的新特征一定两两正交,因此可直接用于任意机器学习模型而无需再做特征缩放。

答案:错误。

详解:PCA通过线性变换产生正交主成分,但各主成分对应的特征值(方差)差异巨大。若后续模型对尺度敏感(如KNN、SVM-RBF、神经网

文档评论(0)

189****1111 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档