谷歌的深度学习与人工智能.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
谷歌的深度学习与人工智能

谷歌的深度学习与人工智能 2013-08-15 22:17:40   谷歌目前已经成为一块极富吸引力的磁铁,吸引着全球研究深度学习和相关的人工智能领域专家纷至沓来。2013年3月,谷歌收购了由加拿大多伦多大学计算机科学教授杰弗里·希顿创立的深度学习企业DNNresearch,希顿也曾获得过默克大奖。希顿目前将自己的时间一分为二:一半给大学;一半给谷歌。辛顿表示,他计划“将这一领域的理念提取出来,用来解决实际问题——诸如图像识别、搜索、自然语言理解等方面的问题”。   上述研究进展时刻在提醒人工智能研究领域的专家们:科幻小说和电影中出现的机器终将出现在现实生活中。的确,机器智能已渗透到各行各业并在逐步改变这些行业的面貌,从通讯、计算到医疗、制造以及运输等,不一而足。IBM研究的超级计算机Watson在美国著名的智力比赛中获胜让这一切得以彰显。Watson也使用了一些深度学习技术,而且,科学家们现在也在训练它帮助医生做决定。微软也在手机操作系统Windows Phone和Bing语音搜索中用到了深度学习技术。   然而,要想将深度学习技术从语音和图像识别领域扩展到其他应用领域则需要科学家们在概念和软件上做出更大突破,而且还需要计算能力的进一步增强。或许,在几年内,我们不会看到计算机能自己思考,但几十年内或许可以。微软美国研究院的院长皮特·李说,深度学习已经引发了人工智能领域很多新的大挑战。   建造大脑   当然,有挑战就会有人想解决办法,一直有一些富有竞争力的方法来应对这些挑战。现在,人们已经可以将现实世界的信息和规则“喂给”计算机,为了做到这一点,需要程序员们不辞辛劳地编写这方面的软件。这会耗费大量人力物力,但是,系统仍然无法处理模糊数据,这些程序的使用范围仅限于一些受控的应用领域,诸如手机的菜单系统等,该系统要求你通过说出特定的词语来提要求。   人工智能领域出现后不久,神经网络也于上世纪50年代开始兴起。神经网络似乎很有前景,因为它们试图模拟大脑的工作方式,尽管采用的是一种非常简化的形式。程序能标示出一套虚拟的神经元然后随机给它们分配数值或者“权值”,以让它们之间相互关联。这些“权值”决定了每个模拟的神经元的反应——用数值输出0和1来表示,通过这种方式可以对图像中的边框或者蓝色阴影、话语中的一个音素的某个能级等特征进行数字化表达。   程序员需要训练神经网络通过用含有这些物体的图像或含有这些因素的声波的数字化后的版本来探测一个物体或者音素。如果该网络无法精确地识别某个特定的模式,将会有一个算法来调整这些权值。这种训练的最终目的是让网络能够持续一致地识别出语音或者图像中的这种模式,也就是说,识别出每句语音中的音素“d”或者每幅图像中的狗,这同小孩子通过观察人们称作狗的动物的头型、行为以及毛皮、吠声等等来认识狗如出一辙。   但是,早期的神经网络一次能模拟的神经元的数量有限,因此,它们无法识别出复杂程度很高的模式,这种情况一直持续到上世纪70年代。   在上世纪80年代中期,辛顿和其他人使用所谓的“深度”模型,引发了神经网络研究的新一轮复兴,深度模型能更好地利用软件模拟多层神经网络。但是,这一技术仍然需要大量的人力投入:程序员们不得不在将数据填入神经元网络前给每个数据贴上标签。而且,复杂的语音或者图像识别所要求的计算能力彼时也让人望尘莫及。   在过去十年里,辛顿和其他研究人员才终于做出了一些根本性的概念上突破。2006年,辛顿研发出了一种更有效地训练单层神经元的方法。即第一层网络学习一些基本的特征,诸如图像的边缘或者声音的最小单元等。它通过发现那些出现频率反常高的数字化后的像素或者声波组合来做到这一点。一旦第一层精确地识别出这些特征,那么,它将被“喂给”第二层,以便第二层训练自己识别更复杂的特征,诸如边角或者声音单位的组合等等。这一过程在多层之间不断重复,直到该系统能够可靠地识别出音素或者对象为止。   就像上面提到的图像中的猫。去年6月,谷歌演示了迄今最大的神经网络,其拥有超过10亿个节点。美国斯坦福大学的计算机科学教授安德鲁·恩格和谷歌的科学家杰夫·迪恩让系统从1000万个随机选择的YouTube视频上挑出了猫的图像。在该软件模型中,一个模拟的神经元主要注意猫的图像。其他神经元则专注于人脸、黄色的花朵以及其他物体的图像。因为深层学习拥有的强大功能,尽管此前并没有人给这些图像贴上标签,该系统还是识别出了这些互不相干的对象。   然而,让某些人工智能专家深感震惊的是深度学习在图像识别领域所取得的惊人成就。该系统可以给YouTube视频中的对象分类,并添加主题,准确率达16%,尽管听起来并不是很高,但与以前的方法相比,准确率提高了70%。迪恩强调称,要知道,YouTube视频中的对象总共有2.2万个类别,大部分人都无法做到这

文档评论(0)

2017ll + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档