pls算法理解.pptxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
pls算法理解

PLS;Pls算法;一、数据的读取与处理 ;data=zscore(pz) %数据标准化;二、*提取主成分 ;;for i=1:n %以下计算w,w*和t 的得分向量, matrix=e0*f0*f0*e0; [vec,val]=eig(matrix) %求特征向量和特征值 82page val=diag(val) ;%提出对角线元素 [val,ind]=sort(val,descend) ;% w(:,i)=vec(:,ind(1)); %提出最大特征值对应的特征向量 w_star(:,i)=chg*w(:,i) %计算w*的取值 ??? t(:,i)=e0*w(:,i) %计算成分ti 的得分 alpha=e0*t(:,i)/(t(:,i)*t(:,i)) %计算alpha_i 王书 154页的P值 chg=chg*(eye(n)-w(:,i)*alpha) %计算w*到w的变换矩阵 e=e0-t(:,i)*alpha ;%计算残差矩阵 e0=e; 、 、 、 、;三、*交叉性检验(确定主成分的个数);%以下计算ss(i)的值 beta=[t(:,1:i),ones(num,1)]\f0; beta(end,:)=[]; %删除回归分析的常数项27page cancha=f0-t(:,1:i)*beta ; % 见156page ss(i)=sum(sum(cancha.^2)); %求误差平方和 第一个sum先把矩阵的列相加(n个样本点的拟合值的 和) 第二个sum是把矩阵的行相加 for j=1:num t1=t(:,1:i);f1=f0; she_t=t1(j,:);she_f=f1(j,:); %把舍去的第j 个样本点保存起来 t1(j,:)=[];f1(j,:)=[]; %删除第j 个观测值 beta1=[t1,ones(num-1,1)]\f1; %求回归分析的系数 beta1(end,:)=[]; %删除回归分析的常数项 cancha=she_f-she_t*beta1; %求残差向量 press_i(j)=sum(cancha.^2); 求第j个样本点的预测误差平方和 end;四、求解原始数据的回归方程的系数

文档评论(0)

dajuhyy + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档