深度学习模型的参数和显存占用计算
【摘要】 1、使用相关的库torchsummary参数量、浮点数计算量、中间变量、train的变量数、保持不变的变量数,每一层的中间变量和类型都会详细列出from torchsummary import summarynet=net.to(torch.device("cpu"))summary(net,(3,224,224),device="cpu") 2、使用库thop简单的输出参数量和其中的浮点计...
1、使用相关的库torchsummary
参数量、浮点数计算量、中间变量、train的变量数、保持不变的变量数,每一层的中间变量和类型都会详细列出
from torchsummary import summary
net=net.to(torch.device("cpu"))
summary(net,(3,224,224),device="cpu")
2、使用库thop
简单的输出参数量和其中的浮点计算次数
from thop import profile
net=net.cuda()
input= torch.ones([1,3,224,224]).cuda()
inputs=[]
inputs.append(input)
flops, params=profile(net,inputs)#,custom_ops={model.ResNet,countModel})
print("flops:{0:,} ".format(flops))
print("parms:{0:,}".format(params))
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)