第二章 感知器.pptVIP

  1. 1、本文档共19页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
计算机科学学院 夏定纯 wistdcx@126.com 1958年,(美)F.Rosenblatt提出,适于简单的模式分类问题。 6.2. 感知器 (Perceptron) 输入:x1, x2 ,…, xn 输出:yk 权: wk1, wk2, …, wkn 阈值:bk (函数f 的阈值) 感知器实际输出: 其中,uk = = W*X+θ、 θ = ? bk = f (uk) = f (wk1x1+ wk2x2+…+wknxn ? bk) = f (W*X+θ) yk = f ( ? ) 6.2.1. 感知器模型 选择f (x)为二值输出: yk = f (uk) = f (W*X+θ) = 1 W*X+θ 0 0 W*X+θ 0 该式的含义: 函数f (x)将输入x分为了两类:1类或0类。 函数f (x)=0,为两类的分界线(面)。 6.2.1. 感知器模型 输入矢量平面图 W*X+θ 0 W* X+θ= 0 W* X+θ< 0 W 输入分类: 1或0, A或B; 分界线(面): W*X+θ=0 为; 感知器分类: 与参数{ W, θ}紧密相关。 感知器的分类 6.2.1. 感知器模型 感知器的分类 6.2.1. 感知器模型 感知器的分类 分界线W*X+θ,是由参数{ W,θ}来确定的; 改变参数{ W,θ} ,就可以改变空间的具体划分; 要实现对输入的划分,就需对{ W,θ}进行调整。 要想实现对输入分类,就是确定如何调节参数{ W,θ} ,这实际上就是一种学习的过程。 感知器的学习 6.2.1. 感知器模型 设:神经元nj和ni、其连接为wij Ni输入为oj、输出为ai,理想输出为ti wji ai o1 Nj Ni Hebb学习: 如果两个神经元激活,则其连接将加强: Δwij = g(ai , ti) · h(oj , wij) 学习 ? 调节 { W, θ } Delta学习:是Hebb学习的一种变形。 Δwij = ? · (ti - ai ) · oj 其中,? 为学习速率(1) 。 6.2.1. 感知器模型 wi1 yi x1 x2 xj wi2 wij θi i 若yi = ti,则△wij(k) = 0,△θi(k) = 0,原wij和θi不变。 若yi =0,ti=1,则 △wij(k) = pj, △θi(k) = 1。 若yi =1,ti=0,则 △wi(k) = -pj,△θi (k) = -1。 △ wij = [ ti - yi ] × pj △θi = [ ti - yi ] × 1 W? = W + E×PT θ? = θ + E E = T-Y (误差) 6.2.1. 感知器模型 感知器学习规则(Delta学习): 确定样本:输入向量P、目标向量T。 网络大小:根据向量的维数来选择网络规模 初始化:W、b取随机值,范围[-1, +1]。 网络输出:根据P、W、b来计算网络的输出Y。 学习偏差:E=T-Y。 新的网络参数: W? = W + E×PT 、 θ? = θ + E 反复训练,直到达到目标,或达到最大的训练次数。 学习/训练步骤 6.2.1. 感知器模型 例 设感知器: W=[1,1]T θ=1。 实现对如下样本的两分类: p(1)=(-1,1)T p(2)=(1,0)T 分析: 带入:p(1)=(-1,1)T,输出:y(1)= sgn(-1+1+1)=1; 带入:p(2)=(1,0)T,输出:y(2)= sgn( 1+0+1)=1; 感知器将这两个样本信号分为同一类。 6.2.1. 感知器模型 这里,W、P 将阈值包含进去,构成扩展的权和样本。 将公式作一个简单变换: 6.2.1. 感知器模型 初始状态 6.2.1. 感知器模型 训练感知器: 学习前: 权W 样本空间划分 分类效果 样本在划分线的同一侧,即为同一类,因此没有达到分类的效果。 -1,1 1,0 p2 p1 + p2 +1 = 0 p1 A=1 B=0 6.2.1. 感知器模型 学习后: 权W 样本空间划分 分类效果 样本分布在划分线的两侧:{ A }、 { B } ,即它们被认为是不同类。 因此,感知器具有对样本分类的功能。 -1,1 1,0 p2 -p1+ p2-1=0 p1 A=1 B=0 6.2.1. 感知器模型 验证: 输入样本 p(1) = (-1,1)T 输入样本 p(2) = (1,0)T -1,1 1,0 p2 -p1+ p2-1=0 p1 A=1 B=0 6.2.1. 感知器模型 线性可分---AND逻辑 p1 p2 p1 AND p2 0 0 0

文档评论(0)

82393aa + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档