考虑Eli Stevens等人题为《PyTorch深度学习》的教科书中名为张量:多维数组的章节中的以下陈述。
让我们构造我们的第一个PyTorch张量,看看它是什么样子。目前,它不会是一个特别有意义的张量,只有三个1在列中:
# In[4]: import torch a = torch.ones(3) a
通常,列的概念用于至少二维的情况。初始化的张量是一维的。因此,我猜测,如果我们使用行或列,这是无关紧要的。
我是真的吗?否则,使用";列";在这种情况下?
通常,在线性代数理论中,n
维向量被认为是n x 1
矩阵,称为列向量。
事实上,形状为(n,)
的tensor
t
的行为与形状为(n, 1)
的tensor
u
的行为非常相似。在数学术语中,你可以想到R^n中的向量t和R ^{n x 1}的向量u。
总之,作者可能建议将tensor
视为一个数学列向量。