我试图通过实现牛顿方法来求解x=cos(x)来深入了解PyTorch是如何工作的。这是一个有效的版本:
x = Variable(DoubleTensor([1]), requires_grad=True)
for i in range(5):
y = x - torch.cos(x)
y.backward()
x = Variable(x.data - y.data/x.grad.data, requires_grad=True)
print(x.data) # tensor([0.7390851332151607], dtype=torch.float64) (correct)
这段代码对我来说似乎很不雅(效率低下?),因为它在for
循环的每一步都在重新创建整个计算图(对吧?)。我试图通过简单地更新每个变量所保存的数据而不是重新创建它们来避免这种情况:
x = Variable(DoubleTensor([1]), requires_grad=True)
y = x - torch.cos(x)
y.backward(retain_graph=True)
for i in range(5):
x.data = x.data - y.data/x.grad.data
y.data = x.data - torch.cos(x.data)
y.backward(retain_graph=True)
print(x.data) # tensor([0.7417889255761136], dtype=torch.float64) (wrong)
看起来,使用DoubleTensor
s,我携带了足够的精度数字来排除舍入误差。那么错误是从哪里来的呢?
可能相关:如果for
循环,则在每一步都没有设置retain_graph=True
标志的情况下,上面的代码段会中断。如果我在循环中省略它,但在第3行保留它,我得到的错误消息是:RuntimeError:第二次试图向后遍历图形,但缓冲区已被释放。当第一次向后调用时,指定retain_graph=True
我认为您的第一个版本的代码是最优的,这意味着它不是在每次运行时都创建计算图。
# initial guess
guess = torch.tensor([1], dtype=torch.float64, requires_grad = True)
# function to optimize
def my_func(x):
return x - torch.cos(x)
def newton(func, guess, runs=5):
for _ in range(runs):
# evaluate our function with current value of `guess`
value = my_func(guess)
value.backward()
# update our `guess` based on the gradient
guess.data -= (value / guess.grad).data
# zero out current gradient to hold new gradients in next iteration
guess.grad.data.zero_()
return guess.data # return our final `guess` after 5 updates
# call starts
result = newton(my_func, guess)
# output of `result`
tensor([0.7391], dtype=torch.float64)
在每次运行中,我们定义计算图的函数my_func()
将使用当前的guess
值进行评估。一旦返回结果,我们就计算梯度(使用value.backward()
调用)。有了这个梯度,我们现在更新我们的guess
并将梯度清零,以便在下次调用value.backward()
时重新保持梯度(即,它停止累积梯度;如果不清零梯度,默认情况下它将开始累积梯度。但是,我们希望在这里避免这种行为)。