4月24日笔记.docx

  1. 1、本文档共17页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
4月24日笔记

神经网络net.trainParam.epochs=10net.trainParam.max_fall=10eval([net num2str(i) =net ] )eval([save net num2str(i) net num2str(i) ])score=[score;testPerformance]神经网路预测方法Net(name(:, 1:5) )多元线性回归10~20倍神经网络仅需要5倍数据查看神经网络View(net)Net.b查看元胞Net.lw隐藏层查看隐藏层或者元胞,输入open ans模式识别App、RecognizationBenign 良性Malignant 恶性没有专家诊断,怎么判断良性和恶性肿瘤Calculations:MEX数据比较好是因为数据良性0:1、恶性1:0其余全是错分Confusion混淆矩阵 右下角为总的概率分类图 越靠近左上角数据越好模型优化:取最好一次的网络模型,将其中的阈值和权值提取出来,放在重新建立空白网络进行优化操作判别分析discrimanation.m判别分析分析器设置混淆矩阵查看数量tabulate(name) 贝叶斯分类Byesdemo.m!!!!!可解决样品数量不够的问题???决策树treemode.mL18花的例子Class menbership 可以看到样本数以及错误分组决策树是自己通过单条件进行挖掘分组可以设置分层数L53 花的例子决策树自带验证功能,无验证集(训练集充当验证集)Resybloss(ctree)把ctree 150个x,y建模后再带入,全部进入训练,误差是——留一法:要求每个值均需做一次text,建100个模型K.fold f 市场常用的 分成五个组 每个组有一次机会做text随机分到三个组,该学没学到,还问一些超群的问题K.fold的误差远大于留一法,因为是数据集之间的差别)考量模型所用的误差分析:把绝对数变成交叉数,直接用kfold求出值 Randperm 100个行(样本)随机抽样,根据抽出顺序划分交叉验证的误差远大于数据误差分层改变的是交叉误差Lanespace(?均匀区数)10-10^2均匀取十个数字规定叶节点,可以控制精确度把kfoldloss误差放到t里面最小叶节点20-40比较合适最小叶节点设置成20Default tree误差小default和opt相近说明结果很好修剪函数组合算法(分类)Ensembledemo.m准确度a=predict(ens,meas)Confusionmat(species,a)推崇上面的算法一键生成十个模型Step1:y=[ones(50,1); ones(50,1)+1; ones(50,1)+2]把第五列改成分组Step2:meas=[meas,y]把分组的第五列加入表格 Step3:把column5设置成response(x作为predictor,y作为response)import datatrain自己选择模型不同模型Step4Export Modelpredict(trainedClassifier,meas(:,1:4))模型预测聚类分析没有y,不能判断模型好坏Main.m最后输出

文档评论(0)

haihang2017 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档