- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2009级《高级人工智能》
2009-2010学年第一学期硕士研究生
《高级人工智能》试题
专业________________姓名 学号 总分
一、简答题(20分,每小题10分)
1、什么是知识?它有哪些类别?
2、什么是知识表示?人工智能对知识表示方法有哪些基本要求?
二、简述深度优先搜索与宽度优先搜索的优缺点。(20分)
三、如何用D-S理论描述假设、规则和证据的不确定性,并实现不确定性的传递与组合?(20分)
D-S证据理论
假设
?? 设U为所有可能假设(表示为原子命题的结论)的有限集合,且U中的元素是互斥的,则可以在U的幂集2U上定义一个基本概率分配函数m: 2U →[0,1],满足
数值m(A)称为基本概率,它表示依据当前环境(证据)对假设集A(U的子集)的信任程度。
????? 三个描述证据不确定性的函数:信任函数、似然函数和类概率函数。
规则
?? 定义具有不确定性的规则形如
?? E=A, CF
?? 其中E为支持A成立的证据集;A={a1,a2,…,am},aiU(i=1,2,…,m),A为假设集U的子集;CF={C1,C2,…,Cm},用于指示前提E成立时假设ai成立的可信度。
不确定性
?? 证据E的不确定性可以用类概率函数f(E)表示,原始证据的f(E)应由用户给定,作为中间结果的证据则由不确定性传递算法确定。
不确定性的传递
?? 对于具有不确定性的规则,定义
?? m({ai})=f(E)·Ci (i=1,2,…,m)
?? 或缩简记为
?? m({a1},{a2},…, {am})=(f(E)·C1, f(E)·C2, …, f(E)·Cm)
?? 规定,则对于U的所有其它子集H,均有
?? m(H)=0
?? 所以当A为U的真子集时,有
?? 进一步可以计算PI(A)和f(A)。
(4)应用不确定推理的准则
?? 尽可能避免使用统计表示,能确定性地解决问题的场合不应使用不确定推理,因为主观概率是不精确的,且在许多场合难以估计。
?? 在必须采用不确定推理时,应将其限制在小范围内(相应于推理中的逻辑步);而不要在不能反映问题结构的大跨度操作中执行。
?? 切记不确定推理结果的精度决不会超过输入数据的精度,不管采用什么技巧也无济于事,所以应尽量保持输入数据的精确性,否则结论的可信度只是误导。
、把化简为合取范式的子句集:(?x)( ? y){{P(x) ? [Q(x) ? R(y)]} ? (? y)[P(f(y)) ? Q(g(x))]}
五、简述ID3算法的基本原理与优缺点。(20分)
宽度优先是最早被应用的搜索方式。对于搜索空间树中的结点,它需要搜索完一层中的所有结点之后,再搜索下一层中的结点。该算法的主要思想是:首先搜索所有的频繁1-项集,根据频繁1-项集生成频繁2-项集的候选,然后搜索数据集发现所有的频繁2-项集,接着根据频繁2-项集生成频繁3-项集的候选,依此类推。宽度优先搜索的不利之处是它需要生成并保存大量的临时候选项集,从而降低了算法的空间效率。
深度优先算法能够较好地解决这个问题,并且深度优先能够利用前瞻剪枝技术提前剪去大量的不需要搜索的分枝,从而提高算法效率。该算法的主要思想是将数据集压缩到一棵称为频繁模式树(FP-Tree)的数据结构中,然后基于FP-Tree挖掘频繁项集。
??? 宽度优先搜索算法的优点是可以删减候选项,但内存消耗大;深度优先则恰好相反。
ID3算法的基本原理
设S是n个数据样本的集合,将样本集划分为c个不同的类 (i=1,2….,c) ,每个类 含有的样本数目为 ,则S划分为C个类的信息熵或期望信息为:
E(S)=-
假设属性A的所有不同值的集合为Values(A), 是S中属性A的值为v的样本
子集,即 ={s A(s)=v},在选择属性A后的每一个分之节点上,对该节点的样
本集 分类的熵为E( )
期望熵为:
E(S,A)= E( )
属性A相对样本集合S的信息增益Gain(S,A)定义为:
Gain(S,A)=E(S)-E(S,A)
Gain(S,A)越大,说明选择属性A对分类提供的信息越多,所以选择其最大的属
性作为测试属性。
其算法思想是:
创建节点N;
If samples 都在同一类C中then
返回N作为叶节点,以类C标记;
If attribute_list为空then
返回N作为叶节点,以samples 中最普遍的类标记;//多数表决
选择attribute_list 中具有最高信息增益的属性test_attribute;
以test_attribute 标记节点N;
For each test_attribute 的已知值v //划分 samples
由节
原创力文档


文档评论(0)