Tensorflow模型的超参数调优|隐藏层的大小和隐藏层的数量



我需要调整一个回归模型的隐藏层的数量和它们的隐藏大小。

正如我之前测试的那样,由于有大量的超参数,一般的超参数优化算法(网格搜索和随机搜索)是不够的。我可以使用PBT或贝叶斯优化来调优网络结构吗?一般来说,除了网格搜索和随机搜索,还有什么优化方法可以调整隐藏层的大小或隐藏层的数量吗?

如果你正在使用PyTorch,最简单的方法是Auto-PyTorch——它会为你(在指定的预算范围内)找到最好的神经结构,比随机搜索更有效。

在它的网站上有更多的信息,包括描述实现方法的论文和与其他方法的基准比较。

您可以尝试使用超带调谐器。作为示例,请参阅"微调神经网络超参数"一节。在https://github.com/ageron/handson-ml3/blob/main/10_neural_nets_with_keras.ipynb

在"动手机器学习与Scikit-Learn, Keras和TensorFlow(第3版)"中有描述;(p.347)。

相关内容

  • 没有找到相关文章

最新更新