cupy 加速

举报
风吹稻花香 发表于 2021/06/04 22:56:04 2021/06/04
【摘要】 这个本质是cuda计算,训练的时候gpu是紧缺资源,这个也需要gpu,所以gpu冲突了。   import cupy as cp def to_cupy(tensor):     """Convert PyTorch tensor to CuPy array.     """     return c...

这个本质是cuda计算,训练的时候gpu是紧缺资源,这个也需要gpu,所以gpu冲突了。

 

import cupy as cp

def to_cupy(tensor):
    """Convert PyTorch tensor to CuPy array.
    """
    return cp.fromDlpack(to_dlpack(tensor))


def to_tensor(cp_array):
    """Convert CuPy array to PyTorch tensor.
    """
    return from_dlpack(cp_array.toDlpack())

合并拼接:

cp_data=cp.hstack((cp_data, cp_data))

numpy 与cupy互转:


  
  1. import cupy as cp
  2. import numpy as np
  3. x_cpu = np.random.randn(100, 100).astype(np.float32)
  4. x_gpu = cp.asarray(x_cpu)
  5. n_data = cp.asnumpy(x_gpu)
  6. print(n_data)
  7. x_cpu*x_cpu
  8. 2.41 µs ± 19.7 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
  9. %%timeit
  10. x_gpu*x_gpu
  11. 14.3 µs ± 53.4 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
  12. import torch
  13. x_tensor = torch.from_numpy(x

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/102420041

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。