假设你有 3 个相同大小的张量:
a = torch.randn(3,3)
a = ([[ 0.1945, 0.8583, 2.6479],
[-0.1000, 1.2136, -0.3706],
[-0.0094, 0.4279, -0.6840]])
b = torch.randn(3, 3)
b = ([[-1.1155, 0.2106, -0.2183],
[ 1.6610, -0.6953, 0.0052],
[-0.8955, 0.0953, -0.7737]])
c = torch.randn(3, 3)
c = ([[-0.2303, -0.3427, -0.4990],
[-1.1254, 0.4432, 0.3999],
[ 0.2489, -0.9459, -0.5576]])
在Lua(火炬7(中,它们具有以下功能:
[self] map2(tensor1, tensor2, function(x, xt1, xt2))
将给定的function
应用于self
的所有元素。
我的问题是:
- python(pytorch(中是否有类似的功能?
- 有没有 pythonic 方法可以在不使用
for loop
和indices
的情况下迭代 3 个张量并获取每个张量的各个元素?
例如:
0.1945 -1.1155 -0.2303
0.8583 0.2106 -0.3427
2.6479 -0.2183 -0.4990
-0.1000 1.6610 -1.1254
...
Edit_1:我也尝试过 itertools.zip_longest 和 zip,但结果并不像上面提到的我预期的那样
你可以使用类似于你提到的 Python 的map
函数。喜欢这个:
>>> tensor_list = [torch.tensor([i, i, i]) for i in range(3)]
>>> list(map(lambda x: x**2, tensor_list))
[tensor([0, 0, 0]), tensor([1, 1, 1]), tensor([4, 4, 4])]
>>>
编辑:对于仅限PyTorch的方法,您可以使用torch.Tensor.apply_
(请注意,这会就地进行更改,并且不会返回新的张量(
>>> x = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
>>> x.apply_(lambda y: y ** 2)
tensor([[ 1, 4, 9],
[16, 25, 36],
[49, 64, 81]])
>>>