CNN简介教案资料.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

卷积神经网络(CNN)ConvolutionalNeuralNetwork

基础知识Basics1卷积神经网络ConvolutionalNeuralNetwork2应用和实例Applicationandexamples3

基础知识1

发展情况无法解决异或问题SVM的兴起硬件性能,大数据

多层感知机

Sigmoid当输入非常大或者非常小的时候,这些神经元的梯度是接近于0。大部分神经元可能都会处在饱和状态,导致网络学习率下降。sigmoid的输出不是零均值的

tanhtanh函数的输出是零均值的

ReLU综合速率和效率,学习周期缩短当学习率设置得太高时,网络中的大量神经元可能会陷入死亡状态,从而有效降低模型的容量。

LeakyReLU更快更高效没有梯度消失或者是突变的现象

Softmax1.多分类2.正则项

Maxout

更多激活函数

梯度下降

反向传播-算法改进随机梯度下降法:需要我们人为的去选择参数 比如学习率、参数初始化 权重衰减系数、Dropout改进:BN网络(BatchNormalization) 1.白化预处理 2.变换重构 网络可以学习恢复出原始网络所要学习的特征分布

反向传播-权重更新1.vanillaupdate2.Momentumupdate3.NesterovMomentumupdate4.Adagradupdate5.RMSpropupdate6.Adamupdate

卷积神经网络2

卷积层1池化层2全连接3

卷积层参数输入: W1*H1*D1超参数:卷积核个数K 卷积核大小F,深度为D1 步长S 填充P输出:W2=(W1-F+2P)/S+1(下取整) H2=(H1-F+2P)/S+1(下取整) D2=K

卷积层10101000010101000010101000010101000010101000010101000010-110-110-103030003030003030003030010-110-110-110-110-110-110-110-110-110-110-110-110-110-110-1输入:6*6卷积核:3*3步长:1输出:4*4

卷积层101010001010100010101000101010001010100010-110-110-103003010-110-110-110-110-110-110-110-110-1输入:5*5卷积核:3*3步长:2输出:2*210-110-110-1

填充(padding)问题: 1.每一次卷积输出图像都会变小,这在很深的网络中无法工作 2.中间的像素和边缘的像素的地位不平等,会丢失边缘信息101010000101010000101010000000101010000101010000101010

0000000001010100000010101000000101010000000001010100000010101000000101010000000000111000-1-1-1-20-30-20-10000111000-1-1-1111000-1-1-1111000-1-1-1111000-1-1-1111000-1-1-1111000-1-1-1111000-1-1-1填充(padding)输入:6*6卷积核:3*3步长:1padding:1输出:6*6

三维卷积6*6*36*6*64*=3*3*3步长:1卷积核:64padding:1(6-3+2*1)/1+1=6输入深度决定卷积核深度卷积核个数决定输出深度输出大小有公式计算

池化层设置(无参数)输入: W1*H1*D1超参数:卷积核大小F,深度为D1 步长S 池化方式:最大池化,均值池化固定参数:卷积核个数K=D1 填充P=0输出:W2=(W1-F)/S+1(下取整) H2=(H1-F)/S+1(下取整) D2=K提示:卷积层3*3过滤器会有9个参数需要学习,但是池化层3*3过滤器没有参数需要学习

池化层池化方法:按处理方式: 1.一般池化 2.重叠池化 3.空间金字塔池化(SSP)按计算方式: 1.均值池化 2.最大池化 3.滑动平均池化 4.L2范数池化

一般池化:不重合101010000101010000101010000000101010000101010000101010输入: 6*6超参数: 池化过滤器尺寸:3*3 步长:3输出: 2*2

重叠池化:有重合101010000101010000101010000000101010000101010000101010输入: 6*6超参数: 池化过滤

文档评论(0)

OfficeDocs + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档