【2023 · CANN训练营第一季】应用开发深入讲解 笔记

举报
yvan1010 发表于 2023/05/11 18:14:12 2023/05/11
【摘要】 【2023 · CANN训练营第一季】应用开发深入讲解 笔记模型转换工具模型推理时,需要先将开源框架的网络模型(如Onnx、TensorFlow等),转换成昇腾AI处理器支持的离线模型。这就需要使用到CANN提供的ATC工具。命令:atc --framework=3 --soc_version=${soc_version}--model=$HOME/module/resnet50_tenso...

【2023 · CANN训练营第一季】应用开发深入讲解 笔记

模型转换工具

模型推理时,需要先将开源框架的网络模型(如Onnx、TensorFlow等),转换成昇腾AI处理器支持的离线模型。这就需要使用到CANN提供的ATC工具。


命令:atc --framework=3 --soc_version=${soc_version}

--model=$HOME/module/resnet50_tensorflow.pb -output=$HOME/module/out/tf_resnet50


ATC工具进行模型转换的运行流程如下图所示


1、使用ATC工具之前,请先1.在开发环境安装ATC软件包获取相关路径下的ATC工具详细说明请参见获取ATC工具。

2、准备要进行转换的模型或单算子描述文件,并上传到开发环境。

3、使用ATC工具进行模型转换,在配置相关参数时,根据实际情况选择是否进行AIPP配置。


模型离线推理总体说明

模型离线推理主要是使用已经转好的om对输入图片进行推理,主要步骤如下图所示:

各步骤解析如下:

•Host&Device内存管理与数据传输:Host&Device上的内存申请与释放,内存间的相互拷贝;

•模型加载:将离线的om文件加载到Device上;在样例的资源初始化模块中进行。

•模型输入输出准备:根据离线om的输入输出,在Device上申请好模型的输入输出内存;在样例的资源初始化模块中进行。

•执行推理:当模型的输入内存获取到有效数据后,便可以调用AscendCL接口执行模型推理,推理完成后结果生成到输出内存中;在样例的模型推理模块中进行。•输出解析:使用AscendCL接口,将模型输出数据从特定格式中解析出来;在输出数据处理模块中进行。 下面将按步骤进行说明。


【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。