- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
ICS35.040CCSL71
团体标准
T/AI132.2—2025
人工智能神经网络编译器第2部分:技术要求与测试方法
Artificialintelligence—Neuralnetworkcompiler—Part2:Technicalrequirementsandtestmethods
2025-04-27发布2025-04-27实施
中关村视听产业技术创新联盟发布
T/AI132.2—2025
I
目次
前言 II
引言 III
1范围 1
2规范性引用文件 1
3术语和定义 1
4缩略语 1
5概述 1
6技术要求 2
6.1一般要求 2
6.2安装部署要求 2
6.3功能要求 2
6.4兼容性要求 3
6.5可扩展性要求 3
7测试方法 3
7.1测试要求 3
7.2安装部署测试 4
7.3功能测试 4
7.4兼容性测试 4
7.5可扩展性测试 5
T/AI132.2—2025
1
人工智能神经网络编译器第2部分:技术要求与测试方法
1范围
本文件规定了人工智能神经网络编译器的技术要求和测试方法。
本文件适用于神经网络编译器的设计参考与测试评估,为神经网络编译器技术发展提供参考规范和功能指引。
2规范性引用文件
本文件没有规范性引用文件。
3术语和定义
下列术语和定义适用于本文件。
3.1
计算图computationalgraph
对一系列算子和数据流转编排之后形成的有向无环图的描述。
3.2
深度学习框架deeplearningframework
用于构建和训练神经网络模型的一套工具和库。
3.3
神经网络编译器neuralnetworkcompiler
输入深度学习框架模型定义文件,输出能够在不同硬件高效执行的代码的翻译器或解释器。3.4
神经网络编译器前端neuralnetworkcompilerfrontend
神经网络编译器的一部分,负责与硬件无关的处理,包括接收深度学习框架的模型输入、将计算图转换至统一的高层IR并进行硬件无关的优化、将高层IR送给神经网络编译器后端。
3.5
神经网络编译器后端neuralnetworkcompilerbackend
神经网络编译器的一部分,负责将高层IR转化为低层IR、针对特定输出硬件执行低层IR的特定优化、生成对应的硬件代码指令、调用各硬件设备执行计算。
4缩略语
下列缩略语适用于本文件。
AI人工智能(ArtificialIntelligence)
ASIC专用集成电路(Application-SpecificIntegratedCircuit)
CPU中央处理器(CentralProcessingUnit)
CUDA统一计算设备架构(ComputeUnifiedDeviceArchitecture)
GPU图形处理器(GraphicsProcessingUnit)
IR中间表示(IntermediateRepresentation)
LLVM底层虚拟机(LowLevelVirtualMachine)
5概述
神经网络编译器的通用设计架构主要包含两部分:编译器前端和编译器后端。在部署深度学习算法模型的训练和推理时,模型可以被深度学习框架表示为计算图,计算图在神经网络编译器中被转换为多级IR,其中高层IR在编译器前端,低层IR在编译器后端。
2
T/AI132.2—2025
a)编译前端主要负责与硬件无关的处理,其主要功能是接收来自不同深度学习框架的模型输入,并将计算图转换至统一的高层IR,之后对高层IR进行硬件无关的优化,再将其送给编译后端;
b)编译后端的主要功能是将优化后的高层IR转化为低层IR,然后针对特定输出硬件执行低层IR的特定优化,并生成对应的硬件代码指令,最后通过不同的硬件接入方式调用各硬件设备执行计算。
c)神经网络编译器通用架构图见图1,其描述了神经网络编译器在编译执行过程中所处的位置与作用。本文件对图1中神经网络编译器(黑色实现框内)的内容做出规定,不涉及其他内容。
深度学习算法模型的训练和推理
深度学习算法模型的训练和推理
文档评论(0)