人工智能实验报告_4.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
“人工智能”实验报告 Artificial Intelligence 老 师:刘丽珏 班 级:物联网1201 学 号:0909120615 姓 名:钱晓雪 日期:2014.4.15 目录 搜索策略实验群 4 二、产生式系统实验群 5 三、神经网络实验群 6 四、实验心得和体会 9 实验一: 搜索策略实验群 姓名 钱晓雪 年级 物联网1201班 指导老师 刘丽珏 日期 2014年4月15日 实验目的  熟悉和掌握启发式搜索的定义、估价函数和算法过程,并利用A*算法求解N数码难题,理解求解流程和搜索顺序。 搜索图 算法比较 广度优先 启发式(1) 启发式(2) Open表 Open{S} Open{1, 2} Open{3, 4, 2} Open{7, 4, 2} Open{4, 2} Open{8, 2} Open{2} Open{5, 6} Open{9, G, 6} Open{G, 6} Open{S} Open{1, 2} Open{5, 6, 1} Open{3, 4, 5, 6} Open{9, G, 3, 4, 6} Open{10, 9, G, 3, 4} Open{8, 10, 9, G, 3} } Open{S} Open{2} Open{5,} Open{G} Close表 S 1 2 3 4 5 6 7 8 9 S 1 3 7 4 8 5 9 S 2 5 估价函数 f(x)=g(x) f(x)=h(x) f(x)*=g(x)*+h(x)* 搜索节点次序记录 S-1-2-3-5-6-7-8-9-G 初始节点s-1-3-7-4-8-2-5-9-目标节点G S-2-5-G 观测结果 学生结论 广度优先搜索算法是一种搜索策略,与之相对应的还有深度优先搜索算法。广度优先是指从图G中 的某点为始点出发,标记出所有与之相邻的点,并再以所有与之相邻的点为始点,搜索所有与这些点相邻的点,从而逐层向下扩展,实现对图的遍历。同理,深度优 先搜索是指从某点出发,逐层向下扩展,直到无路可扩展时向上回溯,它是优先考虑图的深度(指从某点的扩展深度),而广度优先则优先考虑图的广度(指从某点 的可扩展量)。  贪婪算法是一种不追求最优解,只希望得到较为满意解的方法。贪婪算法一般可以快速得到满意的解,因为它省去了为找最优解要穷尽所有可能而必须耗费的大量时间。贪婪算法常以当前情况为基础作最优选择,而不考虑各种可能的整体情况,所以贪婪法不要回溯。 A*算法结合了启发式方法(这种方法通过充分利用图给出的信息来动态地作出决定而使搜索次数大大降低)和形式化方法(这种方法不利用图给出的信息,而仅通过数学的形式分析,如Dijkstra算法)。它通过一个估价函数(Heuristic Function)f(h)来估计图中的当前点p到终点的距离(带权值),并由此决定它的搜索方向,当这条路径失败时,它会尝试其它路径。 我们说如果在一般的图搜索算法中应用了上面的估价函数对OPEN表进行排序的,就称A算法。在A算法之上,如果加上一个条件,对于所有的结点x,都有h(x)=h*(x),那就称为A*算法。如果取h(n)=0同样是A*算法,这样它就退化成了有序算法。 A*算法是否成功,也就是说是否在效率上胜过蛮力搜索算法,就在于h(n)的选取,它不能大于实际的h*(n),要保守一点,但越接近h*(n)给我们的启发性就越大,是一个难把握的东西。 实验二: 神经网络实验群 姓名 钱晓雪 指导老师: 刘丽珏 日期:2014年4月15日 实验目的  理解反向传播网络的结构和原理,掌握反向传播算法对神经元的训练过程,了解反向传播公式。通过构建BP网络实例,熟悉前馈网络的原理及结构。 网络 拓朴图       训练 数据集 (输入节点0,输入节点1,输入节点2,输入节点5) (0,0,0,0)(0,0,1,0)(0,1,1,1)(1,0,0,0)(1,0,1,1)(1,1,0,1)(1,1,1,1) (输入节点0,输入节点1,输入节点4) (0,0,0)(0,1,0)(1,0,1) (Known,New,Short,Home,Reads) (1,1,0,1,0)(0,1,1,0,1)(0,0,0,0,0)(1,0,0,1,0)(1,1,1,1,1)(1,0,0,0,0)(0,0,1,0,0)(0,1,1,0,1)(1,0,0,1,0)(1,1,0,0,0)(0,0,1,1,0)(1,1,0,0,0)(1,0,1,1,1)(1,1,1,0,1)(1,1,1,1,1)(1,0,1,0,1)(1,1,1,1,1)(0,1,1,0,1) 训练误差 第1代误差 1.68 第51代误差 0.52 第101代误差 0.11 第151代误差 0.0

文档评论(0)

188****0089 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档