cupy 加速

举报
风吹稻花香 发表于 2021/06/04 22:56:04 2021/06/04
【摘要】 这个本质是cuda计算,训练的时候gpu是紧缺资源,这个也需要gpu,所以gpu冲突了。   import cupy as cp def to_cupy(tensor):     """Convert PyTorch tensor to CuPy array.     """     return c...

这个本质是cuda计算,训练的时候gpu是紧缺资源,这个也需要gpu,所以gpu冲突了。

 

import cupy as cp

def to_cupy(tensor):
    """Convert PyTorch tensor to CuPy array.
    """
    return cp.fromDlpack(to_dlpack(tensor))


def to_tensor(cp_array):
    """Convert CuPy array to PyTorch tensor.
    """
    return from_dlpack(cp_array.toDlpack())

合并拼接:

cp_data=cp.hstack((cp_data, cp_data))

numpy 与cupy互转:


      import cupy as cp
      import numpy as np
      x_cpu = np.random.randn(100, 100).astype(np.float32)
      x_gpu = cp.asarray(x_cpu)
      n_data = cp.asnumpy(x_gpu)
      print(n_data)
      x_cpu*x_cpu
      2.41 µs ± 19.7 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
      %%timeit
      x_gpu*x_gpu
      14.3 µs ± 53.4 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
      import torch
      x_tensor = torch.from_numpy(x
  
 

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/102420041

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。