- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
一、深度学习:理论和关注机制的进展(YoshuaBengio)
顾名思义,Bengio的talk主要讲了两个部分:理论进展和attentionmechanism。理论进展介绍了:
分布式表示的“指数级”优点
深度的“指数级”优点
非凸优化和局部最小值
自编码器的概率解释
Attention机制则介绍了在机器翻译、语音、图像、视频和记忆单元中的应用。
分布式表示和深度的优点Bengio,简单的说,虽然类似localpartition的方法可以得到有用的表示,浅层(2层)的神经网络也可近似任意的函数,但是分布式表示和深度的引入可以使特征表示和模型变得更加紧凑(compact),达到exponentiallymorestatisticallyefficient的效果。
接下来提到了在深度学习中凸性质(convexity)可能并不是必要的。因为在高维空间中,鞍点(saddlepoint)的存在是主要问题,而局部最小值通常都会很接近全局最小值了。这部分的内容比较陌生,有兴趣可以看看最近的论文。
Attention机制方面,讲了很多最新的进展。有很多相关的paper都非常有趣,我要找个时间好好看看这个系列了。一个基本的思路是:我们给每一层引入一个额外的输入,这个输入反应的是之前的一个加权,来表示它们的关注程度。在所谓的soft-attention中,这个加权的值可以直接通过BP训练得到。
二、深度语义学习(XiaodongHe)
来自微软研究院的报告,主要内容:
学习文本的语义性(semantic)表示
知识库和问答系统
多模态(图片——文本)语义模型
讲座开始引入了一点有趣的motivation:一般我们测试机器是否能够理解图片(其实就是训练对了),方法是给图片标记标签然后计算其错误率。然而对于含有丰富内容的复杂场景来说,很难定义所有fine-grained的类别。因此,用自然语言的描述来测试对图片的理解是比较好的方式。
从Word2Vec到Sent2Vec:DeepStructuredSemanticModel(DSSM),虽然我们不知道该如何标记一个句子的语义,但我们知道哪些句子的语义是比较接近的,因此文章通过优化一个基于相似性的目标函数来训练模型,使具有相近语义的句子产生距离相近的向量。接着还介绍了很多模型的细节和变种(卷积DSSM、递归DSSM),在此就不赘述了。
DeepMultimodalSimilarityModel(DMSM):将目标函数中两个句子的相似性改成句子和图片的相似性,便可以将DSSM扩展为一个多模态的模型。
MSR系统解决图片–语言问题:
图片词语检测(Imageworddetection)
句子生成(Languagegeneration)
全局语义性重排序(Globalsemanticre-ranking)
其中图片词语检测用了CNN+MIL(MultipleInstanceLearning)的方法,个人对此比较感兴趣,文章在此。
三、深度神经网络和GPU(JulieBernauer)
换个口味,我们来看看NVIDIA关于深度学习和GPU的结合。总的来说,内容上跟NVIDIA官网上介绍深度学习的slides没什么不同。主要介绍了GPU有什么好处、GPU有多牛,还有一些支持GPU的库和工具。
一张比较好的图:
有用的工具:
Lasagne:基于theano上的开源库,能方便搭建一个深度网络。(Keras用得不太爽,可以试试这个)
四、深度视觉Keynote(RahulSukthankar)
来看看来自google的报告。这个talk里面的内容都不太熟悉,但是看起来都非常有意思。主要内容有:
用PeerPresssure方法来找highvaluemistake
结合深度学习和其他机器学习方法来更好解决视觉问题
首先来看看PeerPressure。这是Rahul组最近的一个工作:TheVirtuesofPeerPressure:ASimpleMethodforDiscoveringHigh-ValueMistakes。所谓“high-valuemistake”,指的是那些我们认为训练好的模型可以准确预测的样本,结果它却“犯傻”了。因此这些样本也叫做“hardpositive”,难以答对的样子。
从头说起,深度神经网络虽然有很多成功的应用,但同时也被发现很容易犯愚蠢的错误(比如上述的high-valuemistake)。因此作者提出了PeerPressure:集成+对抗训练(emsembles+adversarialtraining)的方法,来找到这些错误。简单来说就是,有一组训练于同样数据但是初始化或者结构不同的
您可能关注的文档
- 光学系统集成.docx
- 机器视觉主要硬件参数详解.docx
- 机器人运动学中的非完整约束与运动模型推导.docx
- 计算摄影学基石:相机成像原理.docx
- 如何优化深度学习模型.docx
- 机器视觉在轮胎检测中的应用.docx
- 基于Transformer的多模态BEV融合方案.docx
- 这些图像传感器如何选?先get这五大要点√.docx
- “分类”“聚类”傻傻分不清楚.docx
- 从神经网络开始讲图像分类基础.docx
- 2025年全国爱国卫生月活动总结(28篇).docx
- 2025年公交驾驶员年终总结(6篇).docx
- 2025年公司年度行政工作计划(31篇).docx
- 知到智慧树网课:C语言编程新思路(山东理工大学)章节测试满分答案.pdf
- 《毛泽东思想和中国特色社会主义理论体系概论》专题测试参考答案.docx
- 知到智慧树网课:C语言编程方法与思想(北京航空航天大学)章节测试满分答案.docx
- 知到智慧树网课:大学英语课程思政(哈工)章节测试满分答案.docx
- 2025年二级建造师法规章节精编习题库.pdf
- 2025年二级建造师法规章节精编习题库.doc
- 2025年北京市三类人员安全员c3证考试题库及答案.doc
文档评论(0)