跳到主要内容

ONNX框架

适配插件开发

开发者可以参考本章节进行算子适配插件的开发,将ONNX框架的算子映射成适配Kirin AI处理器的算子(下文简称AscendC算子),从而完成从ONNX框架调用AscendC自定义算子的过程。如下样例展示了一个基础的开发流程:

#include "register/register.h"
#include "nlohmann/json.hpp"
namespace domi {
Status ParseParamByOpFunc(const ge::Operator& op_src, ge::Operator& op_dest) {
// ...
}
REGISTER_CUSTOM_OP("OpType") // 映射的自定义算子类型
.FrameworkType(ONNX)
.OriginOpType("OriginOpType") // ONNX模型中的算子类型
.ParseParamsByOperatorFn(ParseParamByOpFunc); // 用来注册解析算子属性的函数
}
  1. 包含所需头文件。

    • register.h,存储在DDK软件安装后文件存储路径的"ddk/ai_ddk_lib/include/register"目录下,包含该头文件,可使用算子注册相关类,调用算子注册相关的接口。

    • json.hpp,用于进行ONNX数据定义的解析,将String类型的算子参数定义转换为json格式。若样例工程中未提供"json.hpp"文件,开发者可以自行下载,并将"json.hpp"放在工程可以找到的任意路径下,然后包含此头文件即可,推荐放在DDK安装目录的"tools/tools_ascendc/json-develop"下,按如下目录放置。下载路径可参见json.hpp

      json-develop
      ├── include
      │ └── nlohmann
      │ └── json.hpp
      └── README.md
  2. 使用REGISTER_CUSTOM_OP宏,完成DDK算子和ONNX框架的算子映射关系注册。使用方法如下。

    • REGISTER_CUSTOM_OP:注册自定义算子,OpType为算子类型名称,需要与算子原型定义实现中的OpType保持一致。
    • FrameworkType:ONNX代表原始框架为ONNX。
    • OriginOpType:算子在原始框架中的类型。例如自定义算子OpTypeA,对应ONNX算子库版本opset_version=11,应传入"ai.onnx::11::OpTypeA",当前支持的ONNX版本范围为9~15。
    • ParseParamsByOperatorFn(ParseParamByOpFunc):用来注册解析算子参数实现映射关系的回调函数,需要开发者自定义实现ParseParamsByOperatorFn。具体实现方式参考步骤3。
  3. 实现回调函数ParseParamByOpFunc。其函数声明如下所示:

    Status ParseParamByOpFunc(const ge::Operator& op_src, ge::Operator& op_dest)
    • ParseParamByOpFunc:函数名称,开发者自定义。
    • op_src:ONNX框架定义的Operator类对象,包含ONNX模型中自定义的算子属性信息,定义来源于ONNX框架的原始模型文件。
    • op_dest:DDK算子数据结构,保存算子信息,Operator类的详细描述请参见Operator

    开发者需要在回调函数中实现属性的解析和映射,具体实现方式如下。

    ONNX原始模型中,属性为repeated message类型,对于repeated message类型的参数,可使用GetAttr(const char *name, ge::AscendString &attr_value) 接口获取其属性值,然后将AscendString类型的属性值转换为String类型,再将其转换为json格式进行属性字段的解析。

    实现如下所示:

    SStatus ParseParamAddCustom(const ge::Operator& op_src, ge::Operator& op_dest) {
    ge::AscendString attrs_string;
    // 使用固定属性名称“attribute”获取ONNX算子中的属性,并赋值给AscendString类型对象
    if (ge::GRAPH_SUCCESS == op_src.GetAttr("attribute", attrs_string)) {
    nlohmann::json attrs = nlohmann::json::parse(attrs_string.GetString());
    for (nlohmann::json attr : attrs["attribute"]) {
    if (attr["name"] == "bias") {
    int64_t bias = attr["i"];
    op_dest.SetAttr("bias", bias);
    }
    }
    }
    return SUCCESS;
    }

    开发者也可以使用自动解析和映射的回调函数AutoMappingByOpFn,使用方式如下。

    #include "register/register.h"
    namespace domi {
    REGISTER_CUSTOM_OP("OpType")
    .FrameworkType(ONNX)
    .OriginOpType("OriginOpType")
    .ParseParamsByOperatorFn(AutoMappingByOpFn); // 用来注册解析算子属性的函数
    }

    • 当前版本GetAttr与SetAttr接口不支持对原始文件中数据类型为double和uint64的字段进行解析。
    • 使用omg工具执行模型转换时,对属性的获取情况不会进行强校验。所以进行算子适配插件实现时,若开发者调用GetAttr失败,建议根据算子实际情况增加相应的处理逻辑,例如,针对必选属性,可返回失败,针对可选属性,可设置默认值。
    • 对于float32的非常量输入,如果算子注册只支持float16, 框架会自动插入cast算子将float32的输入转成float16的输入,计算完成后通过cast算子将输出转回float32的输出。对于float32的常量输入,框架不会自动转换,需要开发者自行修改权重格式、类型,以匹配算子的输入。

调用样例

完成了ONNX框架的适配插件开发后,即可实现从ONNX框架调用AscendC自定义算子。下面以一个仅包含AddCustom算子的ONNX框架网络为例(该网络中的AddCustom算子通过适配插件映射为自定义的AddCustom算子),呈现一个使用推理工具进行推理的过程,目的在于让开发者快速体验推理场景下网络中自定义算子调用的过程。

在完成如下步骤之前,开发者需要先参考上文内容完成自定义AddCustom算子kernel侧和host侧的开发、ONNX适配插件的开发,并完成算子的编译部署。

完整样例请参考AddCustom算子实现ONNX框架调用示例

  1. 通过pytorch代码生成该自定义算子。

    import os
    import numpy as np
    import onnx
    from onnx import helper
    from onnx import TensorProto


    def create_model():
    AddCustom = helper.make_node(
    "AddCustom",
    inputs = ["input1", "input2"],
    outputs = ["output"],
    name = "add",
    bias = 1
    )

    input1_input = helper.make_tensor_value_info("input1", TensorProto.FLOAT, [8, 2048])
    input2_input = helper.make_tensor_value_info("input2", TensorProto.FLOAT, [8, 2048])
    add_output = helper.make_tensor_value_info('output', TensorProto.FLOAT, [8, 2048])

    graph = helper.make_graph(
    nodes = [AddCustom],
    name = 'custom_graph',
    inputs = [input1_input, input2_input],
    outputs = [add_output]
    )

    model = helper.make_model(graph, producer_name='onnx-example')
    model.opset_import[0].version = 11
    model.ir_version = 6

    return model

    model = create_model()
    print(onnx.helper.printable_graph(model.graph))
    onnx.save(model, "./add_custom.onnx")
  2. 在%{DDK_INSTALL_PATH}/tools/tools_omg执行如下命令生成离线模型。(如下命令中使用的目录以及文件均为样例,请以实际为准)

    ./omg --model ./add_custom.onnx --framework 5 --output out/custom_graph --target=omc

    关键参数的解释如下。

    • --model:ONNX框架网络模型文件(*.onnx)的路径。

    • --framework:原始框架类型。5表示ONNX。

    • --output:转换后的离线模型的路径以及文件名。请注意,记录保存该omc模型文件的路径,后续开发应用时需要使用。

    • --target:转换后的模型类型,自定义算子场景仅支持omc。

    • --platform:omc模型为硬件相关模型,指定omc模型运行的芯片平台。

      模型转换命令相关参数参考离线模型转换

  3. 若提示有出现如下信息,则说明进入了AscendC自定义算子编译流程且模型转换成功。

    // ...
    "the node AddCustom is custom node"
    // ...
    "OMG generate offline model success."

    成功执行命令后,在--output参数指定的路径下,可查看离线模型(如:leaky_relu.om)。

  4. 参考生成输入数据准备符合模型输入要求的*.bin格式的输入数据。

  5. 参考APP集成代码,完成模型集成。