人工神经网络基础知识详细讲稿.ppt

可以证明,只要隐层和隐层单元数足够多,多层感知器网络可实现任何模式分类。但是,多层网络的权值如何确定,即网络如何进行学习,在感知器上没有得到解决:当年Minsky等人就是因为对于非线性空间的多层感知器学习算法未能得到解决,使其对神经网络的研究作出悲观的结论。 感知器收敛定理 对于一个N个输入的感知器,如果样本输入函数是线性可分的,那么对任意给定的一个输入样本x,要么属于某一区域F+,要么不属于这一区域,记为F—。F+,F—两类样本构成了整个线性可分样本空间。 [定理] 如果样本输入函数是线性可分的,那么下面的感知器学习算法经过有限次迭代后,可收敛到正确的权值或权向量。 假设样本空间F是单位长度样本输入向量的集合,若存在一个单位权向量w*。和一个较小的正数δ>0,使得w*·x= δ对所有的样本输入x都成立,则权向量w按下述学习过程仅需有限步就可收敛。 因此,感知器学习迭代次数是一有限数,经过有限次迭代,学习算法可收敛到正确的权向量w*。对于上述证明,要说明的是:正数δ越小,迭代次数越多:其次,若样本输入函数不是线性可分的,则学习过程将出现振荡,得不到正确的结果。 [定理] 假定隐含层单元可以根据需要自由设置,那么用双隐层的感知器可以实现任意的二值逻辑函数(证明略)。 下图给出了感知器的层数与模式划分区域的关系。 求职应注意的礼仪 求职时最礼貌的修饰是淡妆 面试时最关键的神情是郑重 无论站还是坐,不能摇动和抖动 对话时目光不能游弋不定 要控制小动作 不要为掩饰紧张情绪而散淡 最优雅的礼仪修养是体现自然 以一种修养面对两种结果 必须首先学会面对的一种结果----被拒绝 仍然感谢这次机会,因为被拒绝是面试后的两种结果之一。 被拒绝是招聘单位对我们综合考虑的结果,因为我们最关心的是自己什么地方与用人要求不一致,而不仅仅是面试中的表现。 不要欺骗自己,说“我本来就不想去”等等。 认真考虑是否有必要再做努力。 必须学会欣然面对的一种结果----被接纳 以具体的形式感谢招聘单位的接纳,如邮件、短信 考虑怎样使自己的知识能力更适应工作需要 把走进工作岗位当作职业生涯的重要的第一步,认真思考如何为以后的发展开好头。 Thank you (1)神经网络的存贮能力。 神经网络的存贮能力因不同的网络而不相同。这里我们给出Hopfield的一些结论。 定义:一个存贮器的信息表达能力定义为其可分辨的信息类型的对数值。 在一个M×1的随机存贮器RAM中,有M位地址,一位数据,它可存贮2M位信息 这个RAM中,可以读/写长度为2M的信息串,而 M 长度为2M的信息串有2 2 种, 所以,可以分辨上述这么多种信息串。按上面的定义, M×1的RAM的存贮能力为: C=2M(位)。 [定理1.1] N个神经元的神经网络的信息表达能力上限为: C< (位)。 [定理1.2] N个神经元的神经网络的信息表达能力下限为: C (位)。 其中[N/2]指小于或等于N/2的最大整数。 [定理1.3] 神经网络可以存贮2N-1个信息,也可以区分2 N-1个不同的网络。 神经网络的计算能力 ●数学的近似映射;识别和分类这些计算都可以抽象成一种近似的数学映射。如误差反播模型(BP)、对向传播网络模型(CPN)、小脑模型(CMAC)等都可以完成这种计算。 ●概率密度函数的估计:通过自组织的方式,开发寻找出一组等概率“锚点”,来响应在空间只“中按照一个确定概率密度函数选择到的一组矢量样本。自组织映射模型(SOM) 和CPN模型可以完成这样的计算。 ●从二进制数据基中提取相关的知识:这种计算是形成一种知识的聚类模型,这些知识 依照数据基的自组织在它们之间有某种统计上的共性,并依此来响应输入的数据基记录。脑中盒模型(BSB)有能力进行这种计算。 ●形成拓扑连续及统计意义上的同构映射:它是对固定概率密度函数选择的适应输入数据的一种自组织映射,其最终使得数据空间上的不同项有某种同构。SOM模型适合计算此类问题。 ●最近相邻模式分类:通过比较大量的存贮数据来进行模式分类,但首先应通过学习样本模式进行分类。可用层次性的存贮模式来进行分类信息的表示。绝大多数的神经网络模型均能进行这种计算。如自适应共振理论模型(ART)、双向联想记亿模型 (BAM)、BP模型、玻尔兹曼机模型

文档评论(0)

1亿VIP精品文档

相关文档