神经网络-为什么学习率在SOM中随迭代而变化



通常学习率是我们在开始时决定的值,通常它不会在没有迭代的情况下改变。但是在SOM中学习率是随着迭代而变化的,这背后的思想是什么?

据我所知,学习率应该随着迭代次数的增加而降低。为什么呢?

原因很简单。som在数学模型方面设计得很差,为了保证收敛,需要降低学习率。换句话说,如果不更改此值,学习过程可能根本不会停止。这个问题在某种程度上被称为"主曲线"one_answers"主流形"的数学模型所解决,它们不太流行,但为学习类似som的表示引入了有效的数学方法。

相关内容

最新更新