查看mindir模型profiling性能数据
【摘要】 profiling数据可以直观的看出模型运行过程中的算子类别、耗时已经其他有用的信息,想要得到mindir模型的profiling数据,需要借助cann提供的msprof工具,分为两步执行1、采集数据在采集数据之前,记得source环境变量source /usr/local/Ascend/ascend-toolkit/set_env.sh创建profiling.config,并填入如下内容[...
profiling数据可以直观的看出模型运行过程中的算子类别、耗时已经其他有用的信息,想要得到mindir模型的profiling数据,需要借助cann提供的msprof工具,分为两步执行
1、采集数据
在采集数据之前,记得source环境变量
source /usr/local/Ascend/ascend-toolkit/set_env.sh
创建profiling.config,并填入如下内容
[ascend_context]
profiling_config_file=./profiling.json
创建profiling.json,并填入如下内容,output路径可以修改,用来存放profiling的结果位置
{"profiler": {"switch": "on", "output": "./profiling/", "aicpu": "on"}}
执行命令,以开源的yolox模型为例
benchmark --inputShapes=1,3,640,640 --modelFile=./yolox_x.mindir --device=Ascend --configFile=./profiling.config
执行结束后会生成一个以PROF开头的文件夹
2、聚合数据
生成数据之后,为了更方便的查看数据,需要再进行数据聚合,执行命令如下
msprof --export=on --output=./PROF_000001_20240603172122299_ALJNBJBAKENABHKC
在目录PROF_000001_20240603172122299_ALJNBJBAKENABHKC/mindstudio_profiler_output下面可以看到生成的文件
其中最主要的就是op_statistic和op_summary开头的两个文件,分别存放了算子的汇总数据和单算子执行的详细数据
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)