人工智能原理MOOC习题集及答案.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

人工智能原理MOOC习题集及答案

一、知识表示与推理(15分)

(一)单项选择题(每题2分,共6分)

1.一阶谓词逻辑中,“所有鸟都会飞,企鹅是鸟,所以企鹅会飞”的推理错误源于()。

A.谓词定义不完整

B.存在隐含的例外条件未被表示

C.量词使用错误

D.合取范式转换错误

2.产生式系统中,冲突消解策略的作用是()。

A.确保规则前件与事实完全匹配

B.在多条可用规则中选择执行顺序

C.避免无限循环推理

D.将自然语言转换为产生式规则

3.以下关于语义网络的描述,错误的是()。

A.用节点表示概念,边表示关系

B.支持继承推理(如“金丝雀”继承“鸟”的属性)

C.难以处理复杂的逻辑否定关系

D.与一阶谓词逻辑的表达能力完全等价

(二)填空题(每空1分,共3分)

1.将自然语言命题“如果明天下雨且温度低于10℃,那么运动会取消”转换为一阶谓词逻辑表达式:____________________(设P(x)表示“x天下雨”,Q(x)表示“x天温度低于10℃”,R(x)表示“x天运动会取消”,x为变量)。

2.框架表示法中,“默认槽”的作用是____________________。

(三)简答题(6分)

比较语义网络与框架表示法在知识组织上的异同,并举例说明各自适用场景。

二、搜索算法(20分)

(一)单项选择题(每题2分,共6分)

1.以下搜索算法中,属于启发式搜索的是()。

A.广度优先搜索(BFS)

B.深度优先搜索(DFS)

C.A算法

D.迭代加深搜索(IDS)

2.在八数码问题中,若启发式函数h(n)定义为当前状态与目标状态不同位置的棋子数(不考虑空格),则h(n)是()。

A.可采纳的(admissible)

B.一致的(consistent)

C.既不可采纳也不一致

D.既可采纳又一致

3.对于状态空间庞大的问题,优先选择的搜索策略是()。

A.广度优先搜索(时间复杂度O(b^d))

B.深度优先搜索(空间复杂度O(bd))

C.迭代加深搜索(结合BFS和DFS的优点)

D.双向搜索(同时从初始状态和目标状态搜索)

(二)计算题(8分)

已知某问题的状态空间图如下(节点A为初始状态,G为目标状态;边权值表示移动代价,h(n)为启发式函数值):

```

A(h=5)连接到B(h=3,边权1)和C(h=4,边权2)

B连接到D(h=2,边权1)和E(h=1,边权3)

C连接到F(h=1,边权2)

D连接到G(h=0,边权2)

E连接到G(边权1)

F连接到G(边权3)

```

请用A算法模拟搜索过程,列出每一步扩展的节点及优先级队列(按f(n)=g(n)+h(n)排序),并给出从A到G的最优路径及总代价。

(三)简答题(6分)

说明启发式函数h(n)的“可采纳性”(admissible)与“一致性”(consistency)的定义及二者关系,并举例说明为何A算法在h(n)一致时能保证最优性。

三、机器学习基础(25分)

(一)单项选择题(每题2分,共6分)

1.以下任务中,属于无监督学习的是()。

A.图像分类(给定标签训练集)

B.聚类分析(无标签数据分组)

C.预测房价(连续值输出)

D.情感分析(文本情感极性判断)

2.训练机器学习模型时,若验证集误差远大于训练集误差,最可能的原因是()。

A.模型欠拟合(underfitting)

B.模型过拟合(overfitting)

C.学习率过小

D.数据标注错误

3.逻辑回归(LogisticRegression)的损失函数通常选择()。

A.均方误差(MSE)

B.交叉熵损失(CrossEntropyLoss)

C.绝对误差(MAE)

D.Hinge损失

(二)填空题(每空1分,共4分)

1.支持向量机(SVM)的核心思想是____________________。

2.梯度下降法中,“批量梯度下降”(BatchGD)与“随机梯度下降”(SGD)的主要区别是____________________。

(三)计算题(7分)

已知二维数据集如下:

样本1:(x?=1,x?=2,y=1)

样本2:(x?=3,x?=1,y=1)

样本3:(x?=2,x?=4,y=0)

样本4:(x?=4,x?=3,y=0)

假设使

文档评论(0)

135****8571 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档