深度学习模型的参数和显存占用计算

举报
离璞 发表于 2022/02/27 15:18:11 2022/02/27
【摘要】 1、使用相关的库torchsummary参数量、浮点数计算量、中间变量、train的变量数、保持不变的变量数,每一层的中间变量和类型都会详细列出from torchsummary import summarynet=net.to(torch.device("cpu"))summary(net,(3,224,224),device="cpu") 2、使用库thop简单的输出参数量和其中的浮点计...

1、使用相关的库torchsummary

参数量、浮点数计算量、中间变量、train的变量数、保持不变的变量数,每一层的中间变量和类型都会详细列出

from torchsummary import summary
net=net.to(torch.device("cpu"))
summary(net,(3,224,224),device="cpu") 

2、使用库thop

简单的输出参数量和其中的浮点计算次数

from thop import profile
net=net.cuda()
input= torch.ones([1,3,224,224]).cuda()
inputs=[]
inputs.append(input)
flops, params=profile(net,inputs)#,custom_ops={model.ResNet,countModel})
print("flops:{0:,} ".format(flops))
print("parms:{0:,}".format(params))
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。