数据归一化概念.docx

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
我有一个问题不太明白,神经网络在训练时,先对数据进行归一化处理,按照常理训练完之后应该对数据再进行反归一化啊,可是再很多资料上根本就看不出有反归一化这个步骤,而且很多时候训练效果不是很好。请问,哪个大侠能帮帮我啊2.看一下MATLAB里的premnmx函数和postmnmx函数.它们一个是归一一个是反归一3.并不是归一化的数据训练效果就好Convergent Beam Electron DiffractionSpots and CBEDKikuchi line diffractionHigh order Laue zonesCBED with FOLZ and KikuchisRing patternAmorphous ring pattern4.我也遇到过类似的问题,有篇论文就是用postmnmx函数.效果不好可能是样本数据不太准.5.可以采用标准化PRESTD,效果很好。6.样本数据和测试数据是否放在一起归一化?7.应该将样本数据和测试数据放在一起归一化,不然如果测试数据中有的值比样本数据最大值还大,岂不是超过1了????神经网络训练的时候,应该考虑极值情况,即归一化的时候要考虑你所需要识别参数的极值,以极值作分母,这样可能效果更好一点。8.激发函数如果选用的是倒s型函数,应不存在归一化的问题吧9.我想问大家一下:在神经网络中,只有一个函数即:purelin这个函数对训练的输出数据不用归一化,而象logsig和tansig函数都要归一化(如果数据范围不在[-1,1]或[0,1]之间).那既然用purelin函数可以不用归一化,为何又是还用归一化呢?用神经网络里的PRESTD, PREPCA, POSTMNMX, TRAMNMX等函数归一化和直接用purelin这个函数有什么区别啊? 我作负荷预测时,象不用归一化的效果很好呀!10.purelin没有作归一化啊,你用logsig和tansig作为神经元激励函数,输出范围自然限制在[-1,1]或[0,1]之间了11.我所知道的关于归一化:归一化化定义:我是这样认为的,归一化化就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。首先归一化是为了后面数据处理的方便,其次是保正程序运行时收敛加快。在matlab里面,用于归一化的方法共有三中,(1)premnmx、postmnmx、tramnmx(2)prestd、poststd、trastd(3)是用matlab语言自己编程。premnmx指的是归一到[-1 1],prestd归一到单位方差和零均值。(3)关于自己编程一般是归一到[0.1 0.9] 。具体用法见下面实例。为什么要用归一化?为什么要用归一化呢?首先先说一个概念,叫做奇异样本数据,所谓奇异样本数据数据指的是相对于其他输入样本特别大或特别小的样本矢量。下面举例:m=[0.11 0.15 0.32 0.45 30;0.13 0.24 0.27 0.25 45];其中的第五列数据相对于其他4列数据就可以成为奇异样本数据(下面所说的网络均值bp)。奇异样本数据存在所引起的网络训练时间增加,并可能引起网络无法收敛,所以对于训练样本存在奇异样本数据的数据集在训练之前,最好先进形归一化,若不存在奇异样本数据,则不需要事先归一化。具体举例:close allclearecho onclc%BP建模%原始数据归一化m_data=[1047.92 1047.83 0.39 0.39 1.0 3500 5075;1047.83 1047.68 0.39 0.40 1.0 3452 4912;1047.68 1047.52 0.40 0.41 1.0 3404 4749;1047.52 1047.27 0.41 0.42 1.0 3356 4586;1047.27 1047.41 0.42 0.43 1.0 3308 4423;1046.73 1046.74 1.70 1.80 0.75 2733 2465;1046.74 1046.82 1.80 1.78 0.75 2419 2185;1046.82 1046.73 1.78 1.75 0.75 2105 1905;1046.73 1046.48 1.75 1.85 0.70 1791 1625;1046.48 1046.03 1.85 1.82 0.70 1477 1345;1046.03 1045.33 1.82 1.68 0.70 1163 1065;1045.33 1044.95 1.68 1.71 0.70 849 785;1044.95 1045.21 1.71 1.72 0.70 533 508;1045.21 1045.64 1.72 1.70 0.70 567 526;1045.64 1045.44

文档评论(0)

502992 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档