TensorRT C++ 批量推理笔记
【摘要】
batch为1时,如下:
void* buffers[2]; buffers[inputIndex] = inputbuffer; buffers[outputIndex] = outputBuffer;
但是batch_size大于1时,inputbuffer和outputBuffer如何设置,以及如何构建引擎?
批量推...
batch为1时,如下:
void* buffers[2];
buffers[inputIndex] = inputbuffer;
buffers[outputIndex] = outputBuffer;
但是batch_size大于1时,inputbuffer和outputBuffer如何设置,以及如何构建引擎?
批量推理准备数据:
-
void parseYolov5(cv::Mat& img,ICudaEngine* engine,IExecutionContext* context,std::vector<Yolo::Detection>& batch_res)
-
{
-
// 准备数据 ---------------------------
-
static float data[BATCH_SIZE * 3 * INPUT_H * INPUT_W]; //输入
-
static float prob[BATCH_SIZE * OUTPUT_SIZE]; //输出
-
-
assert(engine->getNbBindings() == 2);
-
void* buffers[2];
-
// In order to bind the buffers, we need to know the names of the input and output tensors.
-
// Note that indices are guaranteed to be less than IEngine::getNbBindings()
-
const int inputIndex = engine->getBindingIndex(INPUT_BLOB_NAME);
-
const int outputIndex = engine->getBindin
文章来源: blog.csdn.net,作者:AI视觉网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/123750675
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)