- 0
- 0
- 约8.29千字
- 约 19页
- 2026-01-22 发布于河南
- 举报
人工智能核心算法模拟习题含答案
一、单选题(共44题,每题1分,共44分)
1.下列可以用于聚类问题的机器学习算法有()
A、随机森林
B、逻辑回归
C、k-means
D、决策树
正确答案:C
2.过拟合会出现高()问题
A、标准差
B、偏差
C、平方差
D、方差
正确答案:D
3.下列神经网络特点描述错误的是(___)
A、广泛并行互连的网络
B、适应性
C、线性特性
D、由简单单元组成
正确答案:C
4.卷积核与特征图的通道数的关系是:
A、卷积核size越大特征图通道数越多
B、卷积核数量越多特征图通道数越多
C、卷积核数量越多特征图通道数越少
D、二者没有关系
正确答案:B
5.独热编码的英文是:
A、twocold
B、onehot
C、twohot
D、onecold
正确答案:B
6.xgboost在代价函数里加入了(),用于控制模型的复杂度
A、激活函数
B、非线性
C、特征变换
D、正则项
正确答案:D
7.语句np.sum(arr3,axis=1)的作用是()?注:(已导入numpy库)importnumpyasnp
A、对每一行求和
B、对每一列求和
C、对整个数组求和
D、对第1列求和
正确答案:A
8.()对隐含层的输入进行归一化,更好的尺度不变性(应对内部协变量偏移),更好的优化地形(输入处于不饱和区域,从而让梯度变大)
A、归一化
B、白化
C、数据增强
D、批量归一化
正确答案:D
9.下面的问题,哪一个属于分类问题的是()
A、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测员工下一季度的绩效考核分数
B、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测员工是否可能会在接下来的一段时间内离职
C、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测员工下一季度的销售额
D、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测员工在接下来一段时间内的工资涨幅
正确答案:B
10.下列关于聚类算法的说法,正确的是()
A、聚类算法通常用于在知道类别的情况下,把样本按照样本之间的相似性等分成不同的类别
B、聚类算法通常用于在不知道类别的情况下,把样本按照样本之间的相似性等分成不同的类别
C、聚类算法可以用于回归问题
D、聚类算法是一种监督学习算法
正确答案:B
11.以下程序的输出是()?array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.shape)
A、(4,3)
B、4
C、3
D、(3,4)
正确答案:A
12.早期图像识别技术中存在的主要问题是()。
A、全局特征丢掉了图像细节
B、太多的错误匹配
C、提取不到主要特征
D、存储效率低下
正确答案:A
13.以下关于熵、信息增益、基尼指数的相关描述中错误的是
A、Gini指数越大,不纯度越小,越容易区分,越不容易分错
B、熵权法是一种客观赋权法,因为它仅依赖于数据本身的离散性
C、信息增益越大,表示某个条件熵对信息熵减少程序越大,也就是说,这个属性对于信息的判断起到的作用越大
D、熵越大,不确定性越大,信息量也就越大
正确答案:A
14.Google与Facebook分别提出SimCLR与MoCo两个算法,实现在()上学习图像数据表征。两个算法背后的框架都是对比学习(contrastivelearning)
A、标注数据
B、无标注数据
C、二维数据
D、图像数据
正确答案:B
15.下列算法,哪项能处理非线性问题()
A、标准SVM
B、多项式回归
C、神经元模型
D、线性回归
正确答案:B
16.神经元之间的每个连接都有()权重。
A、一个
B、两个
C、无
D、多个
正确答案:A
17.数据科学家经常使用多个算法进行预测,并将多个机器学习算法的输出(称为“集成学习”)结合起来,以获得比所有个体模型都更好的更健壮的输出。则下列说法正确的是?()
A、基本模型之间相关性高。
B、基本模型之间相关性低。
C、集成方法均使用加权平均代替投票方法。
D、基本模型都来自于同一算法。
正确答案:B
18.损失函数反映了神经网络的目标输出和实际输出的误差,在深度学习中常用的损失函数是:
A、指数损失函数
B、均方损失函数
C、对数损失函数
D、Hinge损失函数
正确答案:B
19.下面哪个/些超参数的增加可能会造成随机森林数据过拟合?1树的数量2树的深度3学习速率
A、都正确
B、只有1
C、只有3
D、只有2
正确答案:D
20.梯度下降算法的正确步骤是什么?1.计算预测值和真实值之间的误差2.重复迭代,直至得到网络权重的最佳值3.把输入传入网络,得到输出值4.用随机值初始化权
原创力文档

文档评论(0)