我对以下返回向量的矩阵张量乘法示例感到困惑。乍一看,我认为这意味着将张量dydx的第一个维度乘以矩阵dLdy,但我没有得到如下所示的预期结果。那么这个einsum的含义是什么呢?
import torch
import numpy as np
dLdy = torch.randn(2,2)
dydx = torch.randn(2,2,2)
torch.einsum('jk,jki->i', dLdy, dydx)
tensor([0.3115, 3.7255])
dLdy
tensor([[-0.4845, 0.6838],
[-1.1723, 1.4914]])
dydx
tensor([[[ 1.5496, -1.2722],
[ 0.1221, 1.0495]],
[[-1.4882, 0.0307],
[-0.5134, 1.6276]]])
(dLdy * dydx[0]).sum()
-0.1985
对于A和B,这是前两个维度jk上的收缩(和(,因此res(i(=sum_{j,k}A(j,k(B(j,k,i(
例如:
import torch
import numpy as np
dLdy = torch.randn(2,2)
dydx = torch.randn(2,2,2)
print(torch.einsum('jk,jki->i', dLdy, dydx))
print((dLdy * dydx[:,:,0]).sum())
print((dLdy * dydx[:,:,1]).sum())
产生
tensor([4.6025, 1.8987])
tensor(4.6025)
tensor(1.8987)
即(dLdy * dydx[:,:,0]).sum()
是结果向量的第一个元素等