为什么这种带有梯度下降的简单线性回归不起作用?



我是机器学习的新手,我正试图通过梯度下降对f(x)=kx进行线性回归

d(f(x)-y)^2 / dk 
=2(f(x)-y) * d(kx-y) / dk
=2x(f(x)-y)
=2x(kx-y)

所以通过k = k - rate * 2x(kx-y)更新k,通过梯度下降。

这正是教科书上所说的,所以我认为这会奏效:-(

from random import uniform
k,k0=uniform(-100,100),uniform(-100,100)
for _ in range(10):
    x=uniform(-100,100)
    k=k-0.01*x*(k*x-k0*x)
    print k,k0

遗憾的是,输出:

-2639.75970458 -72.294275335
56444.9277867 -72.294275335
-350533.559366 -72.294275335
-315222.824967 -72.294275335
26481249.7869 -72.294275335
25795070.4808 -72.294275335
-329558179.012 -72.294275335
22212688252.9 -72.294275335
-2.2317104093e+11 -72.294275335
1.61788553661e+12 -72.294275335

镦粗速度kk0的偏差:-(

我已经阅读了维基、谷歌和本页右侧推荐的问题,但不知道:-(我经常阅读

让你的"学习率"(例如0.01)更小,迭代次数N更大:

from random import uniform
learning_rate = 0.0001
N = 100
k, k0 = uniform(-100, 100), uniform(-100, 100)
for _ in range(N):
    x = uniform(-100, 100)
    k = k - learning_rate * x * (k * x - k0 * x)
    print k, k0