肌组织实验报告.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
肌组织实验报告   武汉理工大学   现代数字信号处理在前沿学科中的应用实验报告   基于sEMG时域特征的动作识别   学院:信息工程学院   学号:姓名:   班级:电子154   实验基于sEMG时域特征特的动作识别   一、实验目的   1.了解肌电信号常用的时域分析方法;   2.利用MATLAB对肌电信号进行去噪、特征提取及动作识别;   二、实验设备   1.Wi-Fi表面肌电信号采集卡;   2.32位WindowsXP台式机;   3./g无线网卡;   三、实验内容   学习信号的基本去噪方法,并用MATLAB实现;   学习肌电信号常用的时域特征并利用Matlab来进行波形长度符号改变数、过零点、威尔逊赋值等特征的提取;   学习神经网络信号处理方法,掌握BP神经网络的用法,将其用于肌电信号的动作识别。   学习以上三个部分,最终完成一整套肌电信号去噪、特征提取、基于特征的动作识别的MATLAB程序。   四、实验原理   小波去噪   小波去噪方法是一种建立在小波变换基础上的新兴算法,基本思想是根据噪声在不同频带上的小波分解系数具有不同强度分布的特点,将各频带上的噪声对应的小系数去除,保留原始信号的小波分解系数,然后对处理后系数进行小波重构,得到纯净信号。   小波去噪的基本原理图如下   特征提取   时域分析是将肌电信号看成均值为零,而方差随着信号强度的变化而变化的随机信号。时域特征的计算复杂度低,提取比较方便。   最常用的方法有:方差,过零点数,Willison幅值,绝对值平均值(MeanAbsoluteValue,MAV)和波形长度等。在实际应用中,为了让特征可以包含更多的信息,往往选择用不同的时域特征组合形成联合特征向量。我们主要介绍一下几种方法:   过零率:为波形通过零线的次数,从一定程度上反映了信号的频率特性。为了降低零点引入的噪声,往往会引入一个阈值δ。计算方式如下:   sgn(?xk?xk?1),(xk?xk?1??)Willison幅值:是由Willison提出一种对表面肌电信号的幅值变化数量进行计算的方法,经过后人的研究,对Willison幅值的阈值有了明确的范围限定,目前认为50~100?V是最合适的阈值范围。其数学表示公式如公式。   WAMP??fxi?xi?1   t?1N   ?1f(x)???0其中:ifx?阈值otherwise   波形长度:它是对某一分析窗中的波形长度的统计,波长可以体现该样本的持续时间、幅值、频率的特征。   1N?1   WL??x(i?1)?x(i)Ni?1符号改变斜率:为信号的的频率性能提供了一些附加信息,对于3个连续的采样点,给定阈值ω,通过下面的公式计算波峰波谷的个数。   ?xi?xi?1???xi?xi?1???,?i?1,?,N?   神经网络   BP神经网络又称误差反向传播,它是一种多层的前向型神经网络。在BP网络中,信号是前向传播的,而误差是反向传播的。所谓的反向传播是指误差的调整过程是从最后的输出层依次向之前各层逐渐进行的。标准的BP网络采用梯度下降算法,与Widrow-Hoff学习规则相似,网络权值沿着性能函数的梯度反向调整。   前向型神经网络通常具有一个或多个由sigmoid神经元构成的隐层,以及一个由线性神经元构成的输出层。多个具有非线性传递函数的神经元层使得网络可以学习输入和输出之间的非线性关系,而线性输出层使得网络可以产生[-1,+1]之外的输出值。   输入   隐层输出层   a1?tansig(IW1,1p1?b1)a2?purelin(IW2,1a1?b2)   由两层神经元构成的BP网络结构   BP网络的训练算法   ①BP算法   BP算法沿着误差函数减小最快的方向,也就是梯度的反方向改变权值和偏差,这一点与线性网络的学习算法是一致的。BP算法的迭代计算公式可以表示为:   xk?1?xk?akgk   其中,xk代表当前权值和偏差,xk?1代表迭代产生的下一次的权值与偏 差,gk为当前误差函数的梯度,ak代表学习速率。   ②有动量的梯度下降算法   标准的梯度下降法在调整权值时,仅仅按照当前时刻的负梯度方向进行调整,并没有考虑以前各次运算步骤中的梯度方向,因此新的样本对迭代过程影响太大,可能会导致训练过程中调整方向发生震荡,导致不稳定和收敛速度慢的问题,有动量的梯度下降算法则考虑了往前时刻的贡献,其权值迭代算法为:   wij(n?1)?wij(n)??[(1??)D(n)??D(n?1)   其中,D(n),D(n?1)分别表示n时刻,n-1时刻的负梯度。由于加入了以前时刻梯度的贡献,相当于给迭代过程添加了一个低通滤波器,使得网络忽略误差曲面上细节特征,避免了陷入局部极小点的问题。

文档评论(0)

jjkk585 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档