CNN 中全连接参数的 L2 正则化



在这个张量流的例子中,它对完全连接的参数使用了L2正则化。

regularizers = (tf.nn.l2_loss(fc1_weights) + tf.nn.l2_loss(fc1_biases) +
                  tf.nn.l2_loss(fc2_weights) + tf.nn.l2_loss(fc2_biases))

是什么?为什么在这里使用全连接参数?以及它如何提高性能?

正则化器通常是添加到损失函数中的术语,可防止模型过度拟合训练数据。他们通过鼓励学习模型上的某些属性来做到这一点。

例如,参数

的 L2 正则化鼓励所有参数变小,而不是峰值。这反过来又会鼓励网络对输入向量的所有维度给予同等关注。

维基百科页面是对一般正则化的很好的介绍,您可以单击以深入了解L2正则化。

最新更新