下载此文档

智能计算中心异构算力硬件与推理框架适配技术要求行业标准全文.pdf


文档分类:IT计算机 | 页数:约9页 举报非法文档有奖
1/ 9
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/ 9 下载此文档
文档列表 文档介绍
该【智能计算中心异构算力硬件与推理框架适配技术要求行业标准全文 】是由【资料之王】上传分享,文档一共【9】页,该文档可以免费在线阅读,需要了解更多关于【智能计算中心异构算力硬件与推理框架适配技术要求行业标准全文 】的内容,可以使用淘豆网的站内搜索功能,选择自己适合的文档,以下文字是截取该文章内的部分文字,如需要获得完整电子版,请下载此文档到您的设备,方便您编辑和打印。1
ICS 
M32
YD
中华人民共和国通信行业标准
YD/T xxx—202X
智能计算中心异构算力硬件与推理框架适
配技术要求
Technical Requirements for the Adaptation of Heterogeneous Computing Hardware
and Inference Frameworks in Intelligent Computing Centersr
(征求意见稿)
XXXX-XX-XX 发布 XXXX-XX-XX 实施
中华人民共和国工业和信息化部    发 布
YD/T xxx-202X
目 次
目 次 I
前 言 II
1 范围 1
2 规范性引用文件 1
3 术语和定义 1
4 缩略语 2
5 概述 2
6 总体要求 3
设备管理层接入接口要求 3
算子适配层接入接口要求 3
场景化适配要求 4
7 异构算力硬件与推理框架异构适配技术要求 4
安装部署 4
兼容适配 4
算子支持 4
模型支持 5
稳定性 5
易扩展性 5
I
YD/T xxx-202X
前 言
本文件按照 GB/T -2020《标准化工作导则 第 1 部分:标准化文件的结构和起草规则》的规定
起草。
请注意本文件的某些内容可能涉及专利。本文件的发布机构不承担识别专利的责任。
本文件由中国通信标准化协会提出并归口。
本文件起草单位:
本文件主要起草人:
II
YD/T xxx-202X
智能计算中心异构算力硬件与推理框架适配技术要求
1 范围
本文件面向智能计算中心环境下,规定了异构算力硬件与深度学习推理框架在装部署、兼容适配、
算子支持、模型支持、推理性能、稳定性及易扩展性等方面适配的技术要求。
本文件适用于智能计算中心异构算力硬件与推理框架适配建设,用于指导异构算力硬件与推理框架
的兼容适配、优化集成与测试评估。
2 规范性引用文件
下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件,
仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本
文件。
GB/T 25069-2022 信息安全技术术语
GB/T 41867-2022 信息技术人工智能术语
GB/T 45079-2024人工智能深度学台适配技术规范
T/CCSA 463-2023 智能计算中心总体技术要求
3 术语和定义
下列术语和定义适用于本文件。
 
智能计算中心 intelligent computing center
以人工智能计算任务为主要服务对象,提供大规模、集约化异构算力资源、数据资源和算法服务的
公共基础设施。
 
异构算力硬件 heterogeneous computing hardware
在智能计算中心内,用于执行计算任务的、具有不同指令集架构(ISA)或体系结构的处理器或加
速器的统称,例如图形处理器(GPU)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)等。
 
深度学习推理框架 deep learning inference framework
1
YD/T xxx-202X
用于加载已训练的深度学习模型,并在指定硬件上执行前向计算以获得预测结果的软件系统它包括
通用深度学习框架的推理模块,以及专用的推理引擎。
 
算子适配层 operator adaptation layer
实现上层推理框架标准算子到底层异构算力硬件特定计算内核(Kernel)或指令映射与转换的中间
软件层。
 
设备管理层 device management layer
负责异构算力硬件的资源抽象、发现、分配、监控及生命周期管理的软件层。
 
云侧场景 cloud-side scenario
指部署在智能计算中心或云计算平台,面向大规模、高并发推理服务需求的场景。
 
端侧场景 edge-side scenario
指部署在边缘设备、终端设备上,面向低延迟、低功耗、离线或近数据源处理需求的推理场景。
4 缩略语
下列缩略语适用于本文件。
AI 人工智能(Artificial Intelligence)
CPU: 中央处理器(Central Processing Unit)
GPU: 图形处理器(Graphics Processing Unit)
NPU: 神经网络处理器(Neural Processing Unit)
FPGA: 现场可编程门阵列(Field-Programmable Gate Array)
API: 应用程序接口(Application Programming Interface)
SDK: 软件开发工具包(Software Development Kit)
5 概述
异构算力硬件与推理框架的适配应采用分层解耦的架构,主要包括设备管理层和算子适配层,以实
现硬件资源统一管理与计算任务高效执行。通过建立标准化的接入接口与适配层,屏蔽底层硬件差异,
为上层推理框架和应用提供一致、高效的算力服务。
分层解耦:构建清晰的设备管理层与算子适配层,分离资源管理任务与计算执行任务。
接口标准化:规定关键的管理与计算接口,确保不同硬件厂商的驱动或运行时能够以统一方式被集
成与调用。
2
YD/T xxx-202X
场景化覆盖:兼顾云侧(高并发、高吞吐、资源池化)与端侧(低延迟、低功耗、小型化)的不同
技术需求。
能力可度量:建立涵盖安装部署、兼容性、性能、稳定性、扩展性等维度的指标体系。为适配方案
的评价与选型提供客观依据。
图 1 异构算力硬件与推理框架的适配总体框架
6 总体要求
异构算力硬件与推理框架的适配应采用分层解耦的架构,主要包括设备管理层和算子适配层,以实
现硬件资源统一管理与计算任务高效执行。
 设备管理层接入接口要求
设备管理层应向上提供统一的硬件资源抽象和管理接口,具体要求如下:
a) 应支持能枚举系统中可用的异构算力硬件类型、数量、计算能力、内存等信息。
b) 应支持设备上下文的创建、绑定、销毁及资源共享。
c) 应支持提供设备内存的分配、释放、主机与设备间内存拷贝等操作。
d) 应支持计算任务流的创建、同步、销毁及异步事件管理。
e) 应支持提供硬件利用率、温度、功耗、错误状态等监控数据的访问。
f) 应支持在云侧场景下,应支持硬件资源的虚拟化切片或容器直接访问。
 算子适配层接入接口要求
3
YD/T xxx-202X
算子适配层是实现推理框架与具体硬件计算内核桥接的关键,具体要求如下:
a) 应支持与主流推理框架如 TensorFlow Lite, ONNX Runtime, Paddle Lite, TNN 等)兼容的算子接
口。
b) 应支持不同硬件供应商的后端实现动态注册,并能根据模型和硬件环境自动或手动选择最优后
端。
c) 应支持提供针对特定硬件的计算图优化能力,如算子融合、常量折叠、精度转换(FP32/FP16/INT8
等)。
d) 应支持标准化的内核开发工具。
e) 应支持同一硬件架构在不同操作系统(如 Linux, Windows, Android, HarmonyOS 等)上的适配。
 场景化适配要求
场景化适配主要针对云端测应用场景下的技术要求,具体要求如下:
a) 应支持在云侧场景中大规模并发、多租户隔离、动态资源调度、高可用性及与云原生生态的集
成。
b) 应支持端侧场景中功耗优化、内存占用最小化、启动速度、离线支持及对轻量级推理框架的适
配。
7 异构算力硬件与推理框架异构适配技术要求
 安装部署
安装部署指标从部署便捷性、环境依赖、容器化支持三方面明确要求,确保推理框架在云侧与端侧
场景下均可高效、稳定地完成部署,降低部署难度与环境适配成本,具体要求如下
a) 应支持提供清晰的安装指南、依赖包列表及自动化部署脚本。
b) 应支持明确操作系统版本、驱动版本、固件版本及第三方库版本。
c) 应支持提供官方容器镜像及在主流容器平台上的部署说明。
d) 应支持主流编译器与依赖库,环境配置错误率不超过 1%。
 兼容适配
兼容适配指标通过明确硬件、操作系统、上级推理框架及驱动工具链的覆盖范围与兼容要求,确保
推理框架可在多样化的软硬件环境中稳定运行,提升框架的通用性与适配能力。具体要求如下:
a) 应支持主流异构算力硬件种类和型号列表。
b) 应支持主流服务器及终端操作系统列表。
c) 应支持主流深度学习推理框架的兼容,支持模型的顺畅迁移与部署。
d) 应支持 NVIDIA GPU 华为昇腾 、Xilinx FPGA 驱动 等硬件官方驱动、GCC +、Clang
+、ARM GCC +、NVCC +等编译工具链兼容适配,无版本冲突或功能异常问题
 算子支持
算子支持指标从覆盖度、精度、自定义扩展三方面规范要求,满足多样化推理任务需求。具体要求
如下:
a) 应支持的标准算子数量不少于 100 个(含卷积、池化、全连接、激活函数、归一化、注意力机
制等类别),在目标硬件上的实现比例不低于 90%,可在目标硬件上通过硬件加速方式执行。
b) 应支持 FP32、FP16、INT8、BF16 等类型算子实现的数值精度,FP32/FP16/BF16 精度误差不
超过 1e-5,INT8 精度误差不超过 2%。
4
YD/T xxx-202X
c) 应支持提供用户自定义算子的扩展机制,支持自定义算子与框架原生算子的协同调度。
 模型支持
模型支持通过规范模型格式兼容、基准模型验证及转换工具要求,确保不同来源、不同类型的模型
均可顺畅在推理框架中部署执行,降低模型迁移成本,提升框架的实用性。具体要求如下:
a) 应支持主流模型文件格式,兼容主流深度学习框架的模型输出格式,无需额外格式转换即可加
载部署。
b) 应支持主流的基准模型(ResNet 系列:BERT 系列,YOLO 系列:Transformer 系列)。
c) 应支持兼容成熟的主流第三方模型转换与优化工具。
  稳定性
稳定性指标通过长稳测试、异常处理、内存泄漏检测三方面要求,保障推理框架在长期运行、复杂
异常场景下的可靠表现,避免因框架不稳定导致业务中断或性能下降。具体要求如下:
a) 应支持在额定负载下持续运行规定时间无故障、无性能衰退,任务成功率不低于 %。
b) 应支持对异常输入、硬件错误、资源耗尽等情况有恰当的容错或恢复机制:异常输入时返回明
确错误提示,支持硬件重新初始化与任务重试,资源耗尽时支持任务排队或降级处理,避免框
架整体崩溃。
c) 应支持长时间运行( 72 小时)无显著内存泄漏,内存占用增长率不超过 5%。
  易扩展性
易扩展性指标,确保推理框架能够快速适配新技术、新硬件,提升框架的持续迭代能力与生态影响
力。具体要求如下:
a) 应支持硬件提供适配支持,适配过程仅需开发硬件设备驱动适配模块与算子适配模块,无需修
改框架核心代码。
b) 应支持新算子提供硬件后端支持,支持通过算子模板快速开发,适配后算子可直接融入框架的
调度体系。
5

智能计算中心异构算力硬件与推理框架适配技术要求行业标准全文 来自淘豆网www.taodocs.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数 9
  • 收藏数 0 收藏
  • 顶次数 0
  • 上传人 资料之王
  • 文件大小 278 KB
  • 时间2026-04-18