- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
第二节激活函数的含义
激活函数Sigmoid函数神经网络中经常使用的一个激活函数就是如图表示的sigmoid函数(sigmoidfunction)。图中的exp(?x)表示??x的意思。e是纳皮尔常数2.7182…。该式子表示的的sigmoid函数看上去有些复杂,但它也仅仅是个函数而已。而函数就是给定某个输入后,会返回某个输出的转换器。神经网络中用sigmoid函数作为激活函数,进行信号的转换,转换后的信号被传送给下一个神经元。
激活函数ReLU函数在神经网络发展的历史上,sigmoid函数很早就开始被使用了,而最近则主要使用ReLU (RectifiedLinearUnit)函数。
激活函数ReLU函数ReLU(RectifiedLinearUnit)是一种常用的神经网络激活函数,具有以下优点计算速度快:ReLU函数的计算非常简单,只需要判断输入是否大于0,因此计算速度非常快。收敛速度快:ReLU函数在非负区间内斜率为1,因此当输入大于0时,梯度不会变得特别小,这有助于避免梯度消失问题,提高网络的训练速度和稳定性。非线性:ReLU函数在输入大于0时是线性的,在输入小于等于0时是非线性的,因此可以帮助神经网络学习非线性的特征。
激活函数Tanh函数Tanh函数
激活函数Tanh函数优点:有助于减缓梯度的消失问题,提高模型的训练效果。缺点:它的输出范围为[-1,1],因此需要对输入数据进行归一化,避免输出值过大或过小。
激活函数Softmax函数Softmax是常用且重要的一种归一化函数,其将输入值映射为0-1之间的概率实数,常用于多分类。
激活函数Softmax函数Softmax函数的优点包括:1.输出结果可解释性强,可以表示不同类别的概率分布。2.可以使用交叉熵损失函数来训练分类模型,简化模型训练过程。3.Softmax函数具有平移不变性,即在输入向量的每个元素上加上或减去一个常数,Softmax函数的输出不会改变。
您可能关注的文档
- 深度学习案例教程 课件2.1、2.2 .pptx
- 深度学习案例教程 课件2.3张量与数学运算(共5节).pptx
- 深度学习案例教程 课件2.4 实践任务(共2节).pptx
- 深度学习案例教程 课件3.1手写数字识别任务介绍.pptx
- 深度学习案例教程 课件3.2神经网络搭建.pptx
- 深度学习案例教程 课件3.4.1MNIST数据集处理.pptx
- 深度学习案例教程 课件3.4.2全连接神经网络搭建.pptx
- 深度学习案例教程 课件3.4.3 手写数字识别网络训练.pptx
- 深度学习案例教程 课件3.4.4手写数字识别测试和评估.pptx
- 深度学习案例教程 课件3.5 感知机的原理(扩展知识阅读).pptx
- 苏教版8年级上册数学全册教学课件(2021年10月修订).pptx
- 比师大版数学4年级下册全册教学课件.pptx
- 冀教版5年级上册数学全册教学课件.pptx
- 办公室普通党员2024年组织生活会个人对照检查发言材料供参考.docx
- 领导班子成员2025年组织生活会“四个带头”对照检查材料范文.docx
- 2024年度专题组织生活会个人“四个带头”对照检查材料范文.docx
- 党支部领导班子2025年民主生活会“四个带头”个人对照检查材料范文.docx
- 2024年抓基层党建工作述职报告参考范文.docx
- 2024年度民主生活会征求意见情况的报告范文2篇.docx
- 普通党员2024年组织生活会个人“四个带头”对照检查发言材料2篇.docx
文档评论(0)