Python scikit learn MLPClassifier "hidden_layer_sizes"



我迷失在scikit learn 0.18用户手册(http://scikit-learn.org/dev/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier(:

   hidden_layer_sizes : tuple, length = n_layers - 2, default (100,)
   The ith element represents the number of neurons in the ith hidden layer.

如果我在模型中只寻找 1 个隐藏层和 7 个隐藏单元,我应该这样放置吗? 谢谢!

    hidden_layer_sizes=(7, 1)
hidden_layer_sizes=(7,)如果您

只需要 1 个隐藏层和 7 个隐藏单元。

length = n_layers - 2是因为您有 1 个输入层和 1 个输出层。

在文档中:

hidden_layer_sizes:元组,长度 = n_layers - 2,默认值 (100,(

方法:hidden_layer_sizes是大小为 (n_layers -2( 的元组

n_layers意味着我们不需要每个架构的层。

值 2 是从n_layers中减去的,因为两个层(输入和输出(不是隐藏层的一部分,因此不属于计数。

default(100,( 表示如果没有为hidden_layer_sizes提供任何值,则默认架构将有一个输入层、一个具有 100 个单元的隐藏层和一个输出层。

再次从文档中:

i 个元素表示第 i 个隐藏层中的神经元数量。

表示元组中的每个条目都属于相应的隐藏层。

例:

    对于架构 56:
  1. 25:11:7:5:3:1,输入 56 和 1 输出隐藏层将是(25:11:7:5:3(。所以元组hidden_layer_sizes = (25,11,7,5,3,)

  2. 对于架构 3:45:2:
  3. 11:2,带输入 3 和 2 输出隐藏层将是(45:2:11(。所以元组hidden_layer_sizes = (45,2,11,)

相关内容

  • 没有找到相关文章

最新更新