机器学习面试题精解:逻辑回归至CNN.pdfVIP

  • 0
  • 0
  • 约小于1千字
  • 约 3页
  • 2026-03-08 发布于北京
  • 举报

机器学习面试题精解:逻辑回归至CNN.pdf

常见面试题part1

一.逻辑回归

1.写出逻辑回归的分类函数?

2.逻辑回归的损失函数是啥?和MSE有啥区别?为啥不用MSE

3.逻辑回归的局限性在哪?如何解决(线性分类,线性不可分)

4.逻辑回归的特征如何做?需要注意什么(幅值归一化,均值0值归一化,离散特征VS

连续特征)

5.如何解决过拟合(L1+L2正则)

二.朴素贝叶斯

1.朴素贝叶斯的优缺点

三.支持向量机

1.支持向量机和逻辑回归的异同(线性分类+最大margin)

2.支持向量机的核方法

四.Kmeans

1.说下kmeans的聚类过程以及存在问题(初始值敏感,解决方案,多来几次,记下内间

距最小的)

五.LDA

1.阐述LDA的原理过程

六.指标相关

1.阐述准确率,率,AUC值

2.阐述机器学习整个流程(测试集,训练集,有效集)

3.如何解决样本不平衡问题

七.DNN

1.深度络常用激活函数是哪些?为什么不用sigmoid

2.简述梯度和梯度

3.深度学习中常见损失函数有哪些

4.Relu函数存在的问题

5.简述dropout

6.简述多分类采用的方法(softmax函数,额外类,类间冗余)

八word2vec

1.简述word2vec的原理

2.Word2vec的分类函数为什么不用softmax需要怎么改进?

3.Word2vec计算出来的词向量在近义词上相比统计有啥优势

4.阐述fasttext相关原理

九CNN

1.阐述CNN分类原理

2.阐述卷积和池化工作原理以及优点

3.CNN在文本分类下如何作用?和fasttext有啥区别

文档评论(0)

1亿VIP精品文档

相关文档