AlexNet Introduction by. 孙超 The Architecture(体系结构) 1.1 ReLU 1.2 Training on Multiple GPUs 1.3 Local Response Normalization(RLN 局部响应归一化) 1.4 Overlapping pooling(重叠池化) Reducing Overfitting(减少过度拟合) 2.1 Data Augmentation(数据加强) 2.2 Dropout Main content Architecture Improving 1,采用ReLU来代替传统的tanh(or sigmoid)引入非线性。 2,采用2块显卡来进行并行计算,减少了更多显卡需要host传递数据的时间消耗,在结构上,部分分布在不同显卡上面的前后层节点之间无连接,从而提高了训练速度。 3,同层相邻节点的响应进行局部归一化(lrn layer)提高了识别率(top5错误率降低1.2%)。 4,overlapping pooling(top5错误率降低0.3%)。 1.ReLU
您可能关注的文档
最近下载
- 2026年广东省中考数学备考全指南(考点+真题+策略+训练).docx VIP
- 重庆市璧山区2023-2024学年八年级下学期期中考试物理试题【含答案解析】.pdf VIP
- SEW变频器说明书MC07B.pdf
- YDT 1970.4_通信局(站)电源系统维护技术要求 第4部分:不间断电源(UPS)系统.pdf VIP
- 二陈汤课件教学课件.pptx VIP
- 数学广东佛山市2025-2026学年佛山市普通高中高三年级教学质量检测(二)(佛山二模)(4.13-4.15).docx VIP
- (127页PPT)高处作业安全培训课件.ppt VIP
- 供应链管理 啤酒游戏 啤酒游戏.ppt VIP
- 深度解析(2026)《YDT 1970.4-2009通信局(站)电源系统维护技术要求 第4部分:不间断电源(UPS)系统》.pptx VIP
- 卡诺普机器人硬件说明书.pdf
原创力文档

文档评论(0)