- 1、本文档共48页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
AI芯片产业生态梳理
AI芯片作为产业核心,也是技术要求和附加值最高的环节,在AI产业链中的产业价值和战
略地位远远大于应用层创新。腾讯发布的《中美两国人工智能产业发展全面解读》报告显示,基础层的处理器/芯片企业数量来看,中国有14家,美国33家。;
AI芯片分类1;
?利用训练好的模型,使用新的数据去“推理”出各种结论,
如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于黑名单。
?Inference的计算量相比Training少很多,但仍然涉及大量的矩阵运算。
?在推理环节,GPU、FPGA和ASIC都有很多应用价值。;
?在设备端Inference领域,智能终端数量庞大且需求差异较大,
?如高级辅助驾驶ADAS、虚拟现实VR等设备对实时性要求很高,推理过程不能交由云端完成,
?要求终端设备本身需要具备足够的推理计算能力,
?一些低功耗、低延迟、低成本的专用芯片也会有很大的市场需求。;
全定制化ASIC芯片;;;
u2007年以前,人工智能研究受限于当时算法、数据等因素,对于芯片并没有特别强烈的需求,通用的CPU芯片即可提供足够的计算能力。
uGoogleBrain项目,使用包含16000个CPU核的并行计算平台,训练超过10亿个神经元的深度神经网络。
uCPU的串行结构并不适用于深度学习所需的海量数据运算需求,
u用CPU做深度学习训练效率很低,在早期使用深度学习算法进行语音识别的模型中,拥有429个神经元的输入层,整个网络拥有156M个参数,训练时间超过75天。
u在内部结构上,CPU中70%晶体管都是用来构建Cache(高速缓冲存储器)和一部分控制单元,负责逻辑运算的部分(ALU模块)并不多,指令执行是一条接一条的串行过程。;
u2010年NVIDIA就开始布局人工智能产品,
u2014年发布了新一代PASCALGPU芯片架构,这是NVIDIA的第五代GPU架构,也是首个为深度学习而设计的GPU,它支持所有主流的深度学习计算框架。
u2016年上半年,NVIDIA又针对神经网络训练过程推出了基于PASCAL架构的TESLAP100芯片以及相应的超级计算机DGX-1。DGX-1包含TESLAP100GPU加速器,采用NVLINK互联技术,软件堆栈包含主要深度学习框架、深度学习SDK、DIGITSGPU训练系统、驱动程序和CUDA,能够快速设计深度神经网络(DNN),拥有高达
170TFLOPS的半精度浮点运算能力,相当于250台传统服务器,可以将深度学习的训练速度加快75倍,将CPU性能提升56倍。;
uTraining市场目前能与NVIDIA竞争的就是Google。
u今年5月份Google发布了TPU2.0,TPU(TensorProcessingUnit)是Google研发的一款针对深度学习加速的ASIC芯片,第一代TPU仅能用于推理,而目前发布的TPU2.0既可以用于训练神经网络,又可以用于推理。
uTPU2.0包括了四个芯片,每秒可处理180万亿次浮点运算。Google还找到一种方法,使用新的计算机网络将64个TPU组合到一起,升级为所谓的TPUPods,可提供大约11500万亿次浮点运算能力。Google表示,公司新的深度学习翻译模型如果在32块性能最好的GPU上训练,需要一整天的时间,而八分之一个TPUPod就能在6个小时内完成同样的任务。
u目前Google并不直接出售TPU芯片,而是结合其开源深度学习框架TensorFlow为AI开发者提供TPU云加速的服务,以此发展TPU2的应用和生态,比如TPU2同时发布的
TensorFlowResearchCloud(TFRC)。;
u传统CPU/GPU厂家Intel和AMD也在努力进入这Training市场,如Intel推出的XeonPhi+Nervana方案,
uAMD的下一代VEGA架构GPU芯片等,但从目前市场进展来看很难对NVIDIA构成威胁。
u初创公司中,英国Graphcore公司的IPU处理器(IntelligenceProcessingUnit)据介绍也同时支持Training和Inference。该IPU采用同构多核架构,有超过1000个独立的处理器;支持All-to-All的核间通信,采用BulkSynchronousParallel的同步计算模型;采用
您可能关注的文档
最近下载
- 消防整改维修工程施工方案范文模板.docx
- 《金版教程(物理)》2025高考科学复习解决方案第十四章 光第1讲 光的折射、全反射含答案.doc
- 浪潮信息(000977)公司2023年财务分析研究报告.doc
- 自建房买卖合同样本自建房买卖合同格式.docx
- 川教版(2024)七年级上册信息科技 7.5在线协作选素材 课件.pptx VIP
- 2024年1月国家开放大学本科《当代中国政治制度》期末纸质考试试题及答案 .pdf VIP
- 新一代大学英语发展篇视听说教程1答案.docx
- 上海中考数学复习要点汇总.docx VIP
- 第14课丝绸之路的开通与经营西域(课件)-七年级历史上册同步教学课件(统编版2024).pptx VIP
- 门诊采血室优质护理服务.pptx VIP
文档评论(0)