ncnn tensorrt
【摘要】 ncnn:
已实现 winograd 卷积加速,int8 压缩和推断,还有基于 vulkan 的 gpu 推断
同时也支持将Caffe模型转化为int8精度。
而ONNX模型的转化则是近半年来的实现成果,目前支持了大部分的运算(经过测试,我们平常使用的90%的模型都可以使用ONNX-TensorRT来进行转化)。唯一遗憾的是ONNX模型目前还不支持int...
ncnn:
已实现 winograd 卷积加速,int8 压缩和推断,还有基于 vulkan 的 gpu 推断
同时也支持将Caffe模型转化为int8精度。
而ONNX模型的转化则是近半年来的实现成果,目前支持了大部分的运算(经过测试,我们平常使用的90%的模型都可以使用ONNX-TensorRT来进行转化)。唯一遗憾的是ONNX模型目前还不支持int8类型的转化。
支持tensorrt,c++,也不难
https://github.com/clancylian/retinaface
还有int8量化工具
文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/104751096
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)