- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
经典文档 下载后可编辑复制
带激活函数的梯度下降及线性回归和matlab代码
单变量线性回归带输入输出数据归一化处理
我们知道,对于输入数据进行归一化处理能极大地提高神经网络的学习速率,从而提高神经网络的收敛速度。对于同样的学习速率,未经过归一化数据处理的同样的数据集训练神经网络时,将会出现发散的现象,导致神经网络无法收敛。
神经网络的激活函数(比如Relu、Sigmoid函数)会导致神经网络的输出节点只能输出正值,无法输出负值。此时由于激活函数的输出值范围是正值,因此神经网络的期望输出值也是正值。万一当神经网络的训练数据集中包含负值时,可对输出数据集进行加一个最大负值的绝对值的操作,使得神经网络的期望输出值全部为正值。
如果神经网络的输出值的范围比较大,也可以对神经网络输出值进行归一化处理。
如果神经元包含激活函数,则激活函数会自动使得神经元的输出为非负值。
未进行输入数据归一化处理的代码
clear all
clc
% training sample data;
p0=3;
p1=7;
x=1:3;
y=p0+p1*x;
num_sample=size(y,2);
% gradient descending process
% initial values of parameters
theta0=1;
theta1=3;
%learning rate
alpha=0.33;
% if alpha is too large, the final error will be much large.
% if alpha is too small, the convergence will be slow
epoch=100;
for k=1:epoch
v_k=k
h_theta_x=theta0+theta1*x; % hypothesis function
Jcost(k)=((h_theta_x(1)-y(1))^2+(h_theta_x(2)-y(2))^2+(h_theta_x(3)-y(3))^2)/num_sample
theta0=theta0-alpha*((h_theta_x(1)-y(1))+(h_theta_x(2)-y(2))+(h_theta_x(3)-y(3)))/num_sample;
theta1=theta1-alpha*((h_theta_x(1)-y(1))*x(1)+(h_theta_x(2)-y(2))*x(2)+(h_theta_x(3)-y(3))*x(3))/num_sample;
end
plot(Jcost)
yn=theta0+theta1*x
上述未进行输入数据归一化处理的代码最大的学习速率为0.35,在迭代次数到达60次时,输出误差下降至0.0000。
进行输入数据归一化处理的代码
clear all
clc
% training sample data;
p0=3;
p1=7;
x=1:3;
x_mean=mean(x)
x_max=max(x)
x_min=min(x)
xn=(x-x_mean)/(x_max-x_min)
x=xn;
y=p0+p1*x
y=y+0.5;
num_sample=size(y,2);
% gradient descending process
% initial values of parameters
theta0=1;
theta1=3;
%learning rate
alpha=0.9;
% if alpha is too large, the final error will be much large.
% if alpha is too small, the convergence will be slow
epoch=100;
for k=1:epoch
v_k=k
h_theta_x=theta0+theta1*x; % hypothesis function
Jcost(k)=((h_theta_x(1)-y(1))^2+(h_theta_x(2)-y(2))^2+(h_theta_x(3)-y(3))^2)/num_sample
theta0=theta0-alpha*((h_theta_x(1)-y(1))+(h_theta_x(2)-y(2))+(h_theta_x(3)-y(3)))/num_sample;
theta1=theta1-alpha*((h_theta_x(1)-y(1))*x(1)+(h_theta_x(2)-y(2))*x(2)+(h_theta_x(3)-y(
您可能关注的文档
最近下载
- 无损检测质量管理体系.ppt VIP
- 中职汽车维修实践教学在工匠精神培养中的研究课题报告教学研究课题报告.docx
- 铃木船外机四冲程DF150TG-DF150ZG-DF175TG-DF175ZG中文维修手册.pdf
- 吉林2025年长春市总工会公开招聘工会社会工作者107人笔试备考试题及答案解析.docx VIP
- 2025吉林长春市总工会公招聘工会社会工作者(107人)招聘笔试模拟试题及答案解析.docx VIP
- 2025吉林长春市总工会公招聘工会社会工作者(107人)招聘笔试备考试题及答案解析.docx VIP
- QC成果提高金刚砂耐磨地坪施工质量合格率.docx VIP
- 《环境工程原理》课后习题答案.pdf VIP
- 2024年吉林长春市总工会公招聘工会社会工作者笔试真题.docx VIP
- 2025吉林长春市总工会公招聘工会社会工作者(107人)招聘笔试备考题库及答案解析.docx VIP
原创力文档


文档评论(0)