YOLOX (pytorch)模型 转 ONNX 转 ncnn 之❤️C++运行推理❤️【YOLOX 实战三】
【摘要】 本博文接上篇 YOLOX (pytorch)模型 ONNX export | 运行推理【YOLOX 实战二】
文章目录
- 🥇 YOLOX Deployment
- 👋 ncnn in C++
- 📙 环境搭建
- 📙 Step1 【ncnn 极简编译安装】
- 📙 Step2【 Use provided tools to generate onnx file 】
- 📙 Step3【Generate ncnn param and bin file.】
- 📙 Step4【Open yolox.param 对其进行修正】
- 📙 Step5 【Use ncnn_optimize to generate new param and bin】
- 📙 Step6 【 运行测试 刚刚优化后的 yolox-opt.param yolox-opt.bin 】
- 📙 Step7 【Inference image with executable file yolox】
- 👋 ncnn in C++
🥇 YOLOX Deployment
👋 ncnn in C++
整个步骤过程如下:
yolox_s.pth --》 yolox.onnx --》 yolox.param + yolox.bin --》yolox-opt.param + yolox-opt.bin
文章来源: positive.blog.csdn.net,作者:墨理学AI,版权归原作者所有,如需转载,请联系作者。
原文链接:positive.blog.csdn.net/article/details/119924967
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)