他的回复:
1、功能运行在200上肯定是可以的,但是能否使用我们的NPU算力,取决于你的模型中的算子是否都在我们已经支持的算子列表中(算子我们都支持就能使用NPU进行推理),算子列表可在文档板块的算子开发模块中找到:昇腾文档-昇腾社区 (hiascend.com);目前我们适配的pytorch原生算子并不包括你用的这个,想直接转换出om顒应该不行;但是我们有一些自定义的算子,里面有很多种backward算子,您可以看一下那些算子能不能替代您的算子使用;2、加载的模型个数我们并没有硬性限制,可以加载数个,但是NPU上的内存有限,加载过多的模型会挤压你业务算法其他部分的内存空间,所以具体加载多少模型(模型占用多少空间)得结合业务逻辑来看;