信息处理试题2012答案.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息处理试题2012答案.doc

湖南工业大学考试试卷纸 系(院) 电气与信息工程学院 课程名称  信息处理技术 班级     姓名 学号    密封线 课程名称: 信息处理技术 (A卷 闭卷) 适用专业年级 : 09级电子信息 考试时间 100 分钟 题号 一 二 三 四 五 六 七 总分 统分人 签名 题分 20 20 10 10 12 12 16 100 得分 考生注意事项:1、本试卷共 2 页,试卷如有缺页或破损,请立即举手报告以便更换。 2、考试结束后,考生不得将试卷和草稿纸带出考场。(答案请写在密封线内和试卷正面,否则不记分) 名词解释(20分,每题5分) 1计算智能 借鉴仿生学思想,基于生物体系的生物进化、细胞免疫、神经细胞网络等机制,用数学语言抽象描述的计算方法,用以模仿生物体系和人类的智能机制 2 神经网络 神经网络是由大量的、同时也是很简单的处理单元(神经元)广泛地互相连接而形成的复杂网络系统。反映了人脑功能的许多特性,是对人脑功能进行某种简化、抽象和模拟。 3 等价关系 若关系 R 是 X 上各元素之间的关系,且满足: (1) 自反性:R( x , x ) = 1; (2) 对称性:R( x , y ) = R( y , x ) ; (3)传递性:R( x , y ) 属于关系, R( y , z )属于关系,则R( x , z )也属于关系 则称关系 R 是 X 上的一个等价关系. 4 遗传算法 遗传算法主要用于函数最优化计算,它是模拟生物在自然环境中的遗传和进化过程的一种自适应全局寻优的随机搜索算法。 填空(20分,每题2分) 1 计算智能包括神经网络、模糊信息处理 和 遗传算法 。 2 人工智能的三个关键部分是:表示、 学习 和 推理 。 3 典型的学习规则有 Hebbian学习规则 和 Delta学习规则 。 4 神经网络的发展经历了一条曲折的道路,至今经历了兴起、 萧条 和兴盛三个时期。 5 前馈神经网络模型有感知器、 BP神经网络 。 6 Hopfield神经网络模型一般由 单层全互连的神经元 组成。 7自组织映射神经网络(SOM)实现数据降维和可视化的单层神经网络,它是一种 一种无监督学习神经网络 。 8 模糊数学是研究和处理 模糊现象 的数学方法,经典数学是以精确性 为特征的。 9 关系的三种特性是自反性、 对称性 和 传递性 。 10 遗传算法的三个算子是选择算子、 交叉 算子和 变异 算子。 三、(10分)简述神经计算的特点? 大规模并行性、集团运算和容错能力;信息的分布式表示。学习和自组织能力。多层神经网络系统具有强大的解算能力 和处理实际问题的能力。 第 1 页 共 2 页 湖南工业大学考试试卷纸 系(院)        课程名称          班级     姓名 学号    密封线 四、设有输入P=[-1 -0.5 0.3 -0.1; -0.5 0.5 -0.5 1.0],输出T=[1 1 0 0],设计一的MATLAB程序,采用BP神经网络进行训练并测试。(10分) clc % 定义训练样本 P 为输入矢量 P=[-1 -0.5 0.3 -0.1; -0.5 0.5 -0.5 1.0]; T=[1, 1, 0, 0]; net=newff(minmax(P),[3,1],{tansig,purelin},traingdm) inputWeights=net.IW{1,1} inputbias=net.b{1} layerWeights=net.LW{2,1} layerbias=net.b{2} % 设置训练参数 net.trainParam.show = 50; net.trainParam.lr = 0.05; % Learning rate net.trainParam.mc = 0.9; %Learning moment net.trainParam.epochs = 1000; net.trainParam.goal = 1e-3; % 调用 TRAINGDM 算法训练 BP 网络

文档评论(0)

ziyouzizai + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档