他的回复:
回复:HiLens_feige 发表于 2020-8-8 10:11 想请教一下你是怎么把MTCNN模型转为om模型的?推理时的预处理怎么做的?据我所知,MTCNN推理时用的图像金字塔,把图像缩放到不同尺度后分别做推理,因此模型的我的解决方案是,用多个pnet来满足图像金字塔的动态输入。hilens摄像头拍摄的图片大小是固定的720x1280,根据图像金字塔的每一个缩放比例得到缩放以后的图像的大小,这样就得到了一组实际进入pnet网络的图像大小。我是在本地训练输入为12x12x3的pnet得到的checkpoint,然后加载这个模型,按照得到的图像金字塔图的大小来改pnet输入的维度,重新保存,这样就得到了多个pnet。推理时用for循环分别调用不同的pnet来处理金字塔图,在本地测试了效果,除了速度慢点,效果是可以的。但是部署到hilens以后,pnet的结果根本框不到脸,说是精度损失,但其实是直接失效了,所以断定是模型转换的问题。