cupy 加速
【摘要】 这个本质是cuda计算,训练的时候gpu是紧缺资源,这个也需要gpu,所以gpu冲突了。
import cupy as cp
def to_cupy(tensor): """Convert PyTorch tensor to CuPy array. """ return c...
这个本质是cuda计算,训练的时候gpu是紧缺资源,这个也需要gpu,所以gpu冲突了。
import cupy as cp
def to_cupy(tensor):
"""Convert PyTorch tensor to CuPy array.
"""
return cp.fromDlpack(to_dlpack(tensor))
def to_tensor(cp_array):
"""Convert CuPy array to PyTorch tensor.
"""
return from_dlpack(cp_array.toDlpack())
合并拼接:
cp_data=cp.hstack((cp_data, cp_data))
numpy 与cupy互转:
-
import cupy as cp
-
import numpy as np
-
x_cpu = np.random.randn(100, 100).astype(np.float32)
-
x_gpu = cp.asarray(x_cpu)
-
-
-
n_data = cp.asnumpy(x_gpu)
-
print(n_data)
-
-
-
x_cpu*x_cpu
-
2.41 µs ± 19.7 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
-
%%timeit
-
x_gpu*x_gpu
-
14.3 µs ± 53.4 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
-
import torch
-
x_tensor = torch.from_numpy(x
文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/102420041
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)