pytorch 多GPU训练
        【摘要】   
 pytorch 多GPU训练 
 
 
  pytorch多GPU最终还是没搞通,可用的部分是前向计算,back propagation会出错,当时运行通过,也不太确定是如何通过了的。目前是这样,有机会再来补充 pytorch支持多GPU训练,官方文档(pytorch 0.30)给了一些说明:pytorch数据并行,但遗憾的是给出的说明并不详细。不过说的还是蛮清楚的,建...
    
    
    
    pytorch多GPU最终还是没搞通,可用的部分是前向计算,back propagation会出错,当时运行通过,也不太确定是如何通过了的。目前是这样,有机会再来补充
pytorch支持多GPU训练,官方文档(pytorch 0.30)给了一些说明:pytorch数据并行,但遗憾的是给出的说明并不详细。不过说的还是蛮清楚的,建议使用DataParallel。
pytorch使用多GPU训练的时候要考虑的主要的不过是前向计算和后向计算两个部分。
前向计算:
     
      - 
       
        
       
       
        
         net = Net() #Net是自定义的一个网络结构类  
        
       
 
      - 
       
        
       
       
        
         device_ids = [2, 4, 5]  
        
       
 
      - 
       
        
       
       
        
         cudnn.benchmark = True  
        
       
 
      - 
       
        
       
       
        
         net = net.cuda(device_ids[0])  
        
       
 
      - 
       
        
       
       
        
         net = nn.DataPa
        
       
 
     
     
  文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/80605205
        【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
            cloudbbs@huaweicloud.com
        
        
        
        
        
        
        - 点赞
 - 收藏
 - 关注作者
 
            
           
评论(0)