查看mindir模型profiling性能数据

举报
stable feeling 发表于 2024/06/13 17:26:53 2024/06/13
【摘要】 profiling数据可以直观的看出模型运行过程中的算子类别、耗时已经其他有用的信息,想要得到mindir模型的profiling数据,需要借助cann提供的msprof工具,分为两步执行1、采集数据在采集数据之前,记得source环境变量source /usr/local/Ascend/ascend-toolkit/set_env.sh创建profiling.config,并填入如下内容[...

profiling数据可以直观的看出模型运行过程中的算子类别、耗时已经其他有用的信息,想要得到mindir模型的profiling数据,需要借助cann提供的msprof工具,分为两步执行

1、采集数据

在采集数据之前,记得source环境变量

source /usr/local/Ascend/ascend-toolkit/set_env.sh

创建profiling.config,并填入如下内容

[ascend_context]
profiling_config_file=./profiling.json

创建profiling.json,并填入如下内容,output路径可以修改,用来存放profiling的结果位置

{"profiler": {"switch": "on", "output": "./profiling/", "aicpu": "on"}}

执行命令,以开源的yolox模型为例

benchmark --inputShapes=1,3,640,640 --modelFile=./yolox_x.mindir --device=Ascend --configFile=./profiling.config

执行结束后会生成一个以PROF开头的文件夹

2、聚合数据

生成数据之后,为了更方便的查看数据,需要再进行数据聚合,执行命令如下

msprof --export=on --output=./PROF_000001_20240603172122299_ALJNBJBAKENABHKC

在目录PROF_000001_20240603172122299_ALJNBJBAKENABHKC/mindstudio_profiler_output下面可以看到生成的文件

其中最主要的就是op_statistic和op_summary开头的两个文件,分别存放了算子的汇总数据和单算子执行的详细数据

【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。