谷歌AI大会纪要.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
【谷歌搜索业务负责人 普拉巴卡尔·拉加万】 巴黎是我们最重要的人工智能研究中心之一,我们在这里讨论下一个信息的前沿领域——人工智能结合产品如何为未来提供动力。 谷歌的目标是改善尽可能多的人的生活,这是我们所有产品的单一重点。 谷歌搜索推出已有25年,它建立在语言理解的突破上,所以能够接受复杂的对话查询,比如我们搜索好吃的心形法式薄片糕点,谷歌就会帮助我们准确识别正在寻找的东西。 但我们并没有停止在搜索的改进, 我们在人工智能方面持续投资,现在谷歌搜索可以理解多种形式的信息,从语言到图像和视频,甚至是现实世界。通过这种更深入的理解,我们正在超越传统的搜索概念,帮助人们以新的方式理解信息。 现在如果人们简单地用镜头拍一张照片,通过谷歌搜索,它们可以立即了解人们遇到的困难并迅速贡献解决方案。 例如:如果人们正在购买一个新的沙发椅,人们可以从搜索中看到它,并利用AR把该沙发椅放在自家的客厅查看外观和效果;如果人们在一个陌生城市的地铁,可以在谷歌地图上找到该现实世界,并有箭头指出正确的方向。 早期的搜索与现在的例子展示相差甚远,正如我们常说的,搜索永远不会是个已解决的问题,因为有两件事在不断变化:人们的期望和科技的进步。 接下来将分为三个方面分别介绍: 理解信息(Multisearch) 探索真实世界(Google map) 释放创造力(Google art Culture) 我们一次又一次地看到,获取信息使得人们越来越有力量。 但几个世纪以来,信息在很大程度上被限制在其创建或使用的语言中,并且只有理解这种语言的人才能获得。通过电子翻译,我们可以打破语言障碍,解锁信息。 今天,谷歌翻译可以跨越133种语言以了解对话、信息、现实世界。 我们最近在翻译离线模式中增加了33种新语言,包括科西嘉语、拉丁语和依地语(仅举几例)。因此,即使人们在没有互联网的地方,也能得到所需要的翻译帮助。 很快我们也会用更直观的方式来翻译有多种含义的单词,无论人们是想买一本新的小说还是任何一个新的想法,都会结合所处的背景来做出符合需要的翻译。 但我们还可以做得更多,为了弥合语言鸿沟并把翻译的力量带到更多的语言,我们使用了zero-shot机器翻译和先进的AI技术,它能把从未在NMT系统中训练过的语言对进行翻译,zero-shot机器翻译让我们在过去一年增加了20+种新语言翻译,总共有超过3亿人使用这些语言。 另一个重要的方式是我们对信息的视觉意义。早在2017年,我们通过引入镜头重新定义了搜索的含义,人们可以搜索用照片拍到的东西,后来我们把相机选项直接带到搜索栏,之后我们也不断带来新的能力。 现在我很高兴地宣布,我们刚刚达到一个重要的新里程碑。人们现在每月使用镜头超过100亿次,这预示着视觉搜索已经从一个新奇的东西走向现实。正如我们预测的那样,视觉搜索的时代已经到来。在翻译的背景下,理解不仅仅局限于我们使用的语言,也包含我们看到的视觉效果。 这一功能现在已经在安卓手机上全面展开,人们可以使用镜头开始将文本翻译成上下文。我们希望通过镜头将人们与世界上的信息联系起来,我们继续在这些基础能力上不断发展。 【理解信息(Multisearch)】 现在人们已经可以使用镜头从相机或照片中搜索。但谷歌正在引入一个重要的更新,以帮助人们搜索手机屏幕上的东西。在未来几个月,人们将能够跨越网站和应用程序,来使用镜头搜索在照片或视频中看到的东西。 例如,假设一位用户从朋友那里收到一条信息,里面是朋友所发送的一段探索巴黎的视频,该用户想了解视频中看到的地标是什么,就可以长按手机上的电源按钮,调出谷歌助手并点击搜索屏幕,助手将用户连接到镜头,发现镜头已将地标识别为卢森堡宫,同时下方有链接,用户点击即可了解更多信息。 正如刚刚所谈到的,沟通的方式有时是文字和图像的组合。这就是为什么去年我们推出了多重搜索和镜头。通过多重搜索,人们可用图片和文字一起搜索,打开全新的方式来表达自己。 假设用户看到一把时尚的椅子,同时想要一个更柔和的颜色来匹配风格,这时就可以使用多重搜索来将它和用户所需的颜色匹配在一起,或者是发现一件花卉图案的衬衫,但想用其他图案来代替,也可以使用多重搜索。 这种独特的能力使我们能够混合图像和文本等模式,它开辟了整个世界的可能性,可以想象到未来会有更多模式被应用。 多重搜索现在正式在全球移动设备上线,这意味着现在可以使用70多种语言进行多重搜索,这些语言将我们引领到世界各地。 在美国,我们可以拍摄食物、菜肴或物品的照片或截图,然后通过“我的附近”这一多重搜索从谷歌上的数百万商家中找到附近的地方,在接下来的几个月里,我们将把 我的附近 也带到所有可以使用镜头的语言和国家。 到目前为止,我们已经谈到了人工智能如何帮助人们更深入地了解世界的信息。我们长期以来一直是这个领域的先驱,在我们

文档评论(0)

yuzhongao9872 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档