TensorFlowDNNRegressor with SGD 或 Adagrad 的默认学习速率是多少?



这可能是一个简单的问题,但我就是找不到它。但我对这一切也很陌生,所以也许我只是瞎子。

将 TensorFlowDNNRegressor 与 SGD 或 Adagrad 一起使用时的默认学习率是多少?使用 Adam 或 Adadelta 时的默认值似乎是 0.001,但我找不到 Adagrad 的默认值,它是 TensorFlowDNNRegressor 的默认优化器,也不是经典 SGD 的默认优化器。

谢谢!

AdaGrad不需要学习率,因为它可以适应组件(因此得名)。一个非常简洁的评论:https://xcorr.net/2014/01/23/adagrad-eliminating-learning-rates-in-stochastic-gradient-descent/

https://github.com/tensorflow/skflow/blob/master/g3doc/api_docs/python/estimators.md#class-skflowtensorflowdnnregressor-tensorflowdnnregressor

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/learn/python/learn/estimators/base.py

TensorFlowDNNRegressor 的默认学习速率为 0.1,如上述文档和代码中所述。

我检查了代码,但 Adagrad 优化器的学习率没有默认值https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/training/adagrad.py

最新更新