《人工智能 神经网络编译器 第2部分:技术要求与测试方法》.docxVIP

《人工智能 神经网络编译器 第2部分:技术要求与测试方法》.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

ICS35.040CCSL71

团体标准

T/AI132.2—2025

人工智能神经网络编译器第2部分:技术要求与测试方法

Artificialintelligence—Neuralnetworkcompiler—Part2:Technicalrequirementsandtestmethods

2025-04-27发布2025-04-27实施

中关村视听产业技术创新联盟发布

T/AI132.2—2025

I

目次

前言 II

引言 III

1范围 1

2规范性引用文件 1

3术语和定义 1

4缩略语 1

5概述 1

6技术要求 2

6.1一般要求 2

6.2安装部署要求 2

6.3功能要求 2

6.4兼容性要求 3

6.5可扩展性要求 3

7测试方法 3

7.1测试要求 3

7.2安装部署测试 4

7.3功能测试 4

7.4兼容性测试 4

7.5可扩展性测试 5

T/AI132.2—2025

1

人工智能神经网络编译器第2部分:技术要求与测试方法

1范围

本文件规定了人工智能神经网络编译器的技术要求和测试方法。

本文件适用于神经网络编译器的设计参考与测试评估,为神经网络编译器技术发展提供参考规范和功能指引。

2规范性引用文件

本文件没有规范性引用文件。

3术语和定义

下列术语和定义适用于本文件。

3.1

计算图computationalgraph

对一系列算子和数据流转编排之后形成的有向无环图的描述。

3.2

深度学习框架deeplearningframework

用于构建和训练神经网络模型的一套工具和库。

3.3

神经网络编译器neuralnetworkcompiler

输入深度学习框架模型定义文件,输出能够在不同硬件高效执行的代码的翻译器或解释器。3.4

神经网络编译器前端neuralnetworkcompilerfrontend

神经网络编译器的一部分,负责与硬件无关的处理,包括接收深度学习框架的模型输入、将计算图转换至统一的高层IR并进行硬件无关的优化、将高层IR送给神经网络编译器后端。

3.5

神经网络编译器后端neuralnetworkcompilerbackend

神经网络编译器的一部分,负责将高层IR转化为低层IR、针对特定输出硬件执行低层IR的特定优化、生成对应的硬件代码指令、调用各硬件设备执行计算。

4缩略语

下列缩略语适用于本文件。

AI人工智能(ArtificialIntelligence)

ASIC专用集成电路(Application-SpecificIntegratedCircuit)

CPU中央处理器(CentralProcessingUnit)

CUDA统一计算设备架构(ComputeUnifiedDeviceArchitecture)

GPU图形处理器(GraphicsProcessingUnit)

IR中间表示(IntermediateRepresentation)

LLVM底层虚拟机(LowLevelVirtualMachine)

5概述

神经网络编译器的通用设计架构主要包含两部分:编译器前端和编译器后端。在部署深度学习算法模型的训练和推理时,模型可以被深度学习框架表示为计算图,计算图在神经网络编译器中被转换为多级IR,其中高层IR在编译器前端,低层IR在编译器后端。

2

T/AI132.2—2025

a)编译前端主要负责与硬件无关的处理,其主要功能是接收来自不同深度学习框架的模型输入,并将计算图转换至统一的高层IR,之后对高层IR进行硬件无关的优化,再将其送给编译后端;

b)编译后端的主要功能是将优化后的高层IR转化为低层IR,然后针对特定输出硬件执行低层IR的特定优化,并生成对应的硬件代码指令,最后通过不同的硬件接入方式调用各硬件设备执行计算。

c)神经网络编译器通用架构图见图1,其描述了神经网络编译器在编译执行过程中所处的位置与作用。本文件对图1中神经网络编译器(黑色实现框内)的内容做出规定,不涉及其他内容。

深度学习算法模型的训练和推理

深度学习算法模型的训练和推理

文档评论(0)

小小的小 + 关注
实名认证
文档贡献者

资料来源网络,仅供学习交流,如有侵权,请【私信】删除!

版权声明书
用户编号:5313124133000044

1亿VIP精品文档

相关文档