pytorch 内积 矩阵乘法
【摘要】
1 1维张量内积-torch.dot()
torch.dot(input, tensor) → Tensor#计算两个张量的点积(内积)#官方提示:不能进行广播(broadcast).#example>>> torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1]))...
1 1维张量内积-torch.dot()
-
torch.dot(input, tensor) → Tensor
-
#计算两个张量的点积(内积)
-
#官方提示:不能进行广播(broadcast).
-
#example
-
>>> torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1])) #即对应位置相乘再相加
-
tensor(7)
-
>>> torch.dot(torch.rand(2, 3), torch.rand(2, 2))
-
#报错,只允许一维的tensor
-
RuntimeError: 1D tensors expected, got 2D, 2D tensors at /Users/distiller/project/conda/conda-bld/pytorch_1570710797334/work/aten/src/TH/generic/THTensorEvenMoreMath.cpp:774
-
注意 新版本中(>=0.3.0),关于 tensor.dot() 有了新的改变,它只能针对于一维的数组.。
2 矩阵乘法-torch.mm()
满足矩阵乘法的shape变化:(a, b)* ( b, c ) = ( a, c )
-
torch.mm(input, mat2, out=None) → Tensor
-
#对矩阵imput和mat2执行矩阵乘法。 如果input为(n x m)张量,则mat2为(m x p)张量,out将为(n x p)张量。
-
#官方提示此功能不广播。有关广播的矩阵乘法,请参见torch.matmul()。
-
#example
-
>>> mat1 = torch.randn(2, 3)
-
>>> mat2 = torch.randn(3, 3)
-
>>> torch.mm(mat1, mat2)
-
tensor([[ 0.4851, 0.5037, -0.3633],
-
[-0.0760, -3.6705, 2.4784]])
-
3 矩阵点乘
即对应的位相乘,要求shape一样, 返回的还是个矩阵。
torch.mul(tc.ones((3,4)), 5*tc.ones(3,4))
- 1
Out[14]:
tensor([[5., 5., 5., 5.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]])
3 综合乘法-torch.matmul()
这种方法一定要看清楚了再用~
注意:标量是0维的~,即 size 的结果是 torch.Size([])
-
torch.matmul(input, other, out=None) → Tensor
-
#两个张量的矩阵乘积。行为取决于张量的维数,如下所示:
-
#1. 如果两个张量都是一维的,则返回点积(标量)。
-
>>> # vector x vector
-
>>> tensor1 = torch.randn(3)
-
>>> tensor2 = torch.randn(3)
-
>>> torch.matmul(tensor1, tensor2).size()
-
torch.Size([])
-
#2. 如果两个参数都是二维的,则返回矩阵矩阵乘积。
-
# matrix x matrix
-
>>> tensor1 = torch.randn(3, 4)
-
>>> tensor2 = torch.randn(4, 5)
-
>>> torch.matmul(tensor1, tensor2).size()
-
torch.Size([3, 5])
-
#3. 如果第一个参数是一维的,而第二个参数是二维的,则为了矩阵乘法,会将1附加到其维数上。矩阵相乘后,将删除前置尺寸。
-
# 也就是让tensor2变成矩阵表示,1x3的矩阵和 3x4的矩阵,得到1x4的矩阵,然后删除1
-
>>> tensor1 = torch.randn(3, 4)
-
>>> tensor2 = torch.randn(3)
-
>>> torch.matmul(tensor2, tensor1).size()
-
torch.Size([4])
-
#4. 如果第一个参数为二维,第二个参数为一维,则返回矩阵向量乘积。
-
# matrix x vector
-
>>> tensor1 = torch.randn(3, 4)
-
>>> tensor2 = torch.randn(4)
-
>>> torch.matmul(tensor1, tensor2).size()
-
torch.Size([3])
-
#5. 如果两个自变量至少为一维且至少一个自变量为N维(其中N> 2),则返回批处理矩阵乘法。如果第一个参数是一维的,则在其维数之前添加一个1,以实现批量矩阵乘法并在其后删除。如果第二个参数为一维,则将1附加到其维上,以实现成批矩阵倍数的目的,然后将其删除。非矩阵(即批量)维度可以被广播(因此必须是可广播的)。例如,如果input为(jx1xnxm)张量,而other为(k×m×p)张量,out将是(j×k×n×p)张量。
-
>>> # batched matrix x broadcasted vector
-
>>> tensor1 = torch.randn(10, 3, 4)
-
>>> tensor2 = torch.randn(4)
-
>>> torch.matmul(tensor1, tensor2).size()
-
torch.Size([10, 3])
-
>>> # batched matrix x batched matrix
-
>>> tensor1 = torch.randn(10, 3, 4)
-
>>> tensor2 = torch.randn(10, 4, 5)
-
>>> torch.matmul(tensor1, tensor2).size()
-
torch.Size([10, 3, 5])
-
>>> # batched matrix x broadcasted matrix
-
>>> tensor1 = torch.randn(10, 3, 4)
-
>>> tensor2 = torch.randn(4, 5)
-
>>> torch.matmul(tensor1, tensor2).size()
-
torch.Size([10, 3, 5])
-
>>> tensor1 = torch.randn(10, 1, 3, 4)
-
>>> tensor2 = torch.randn(2, 4, 5)
-
>>> torch.matmul(tensor1, tensor2).size()
-
torch.Size([10, 2, 3, 5])
文章来源: blog.csdn.net,作者:AI视觉网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/121127507
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)