弹性网络在scikit-learn和glmnet中是等价的



特别是,glmnet文档暗示它为回归创建了一个高斯族的"广义线性模型",而scikit-learn暗示没有这样的事情(即,它似乎是纯线性回归,而不是广义)。但我不确定这一点。

在您链接到的文档中,有一个优化问题,它准确地显示了 GLMnet 中优化的内容:

1/(2N) * sum_i(y_i - beta_0 - x_i^T beta) + lambda * [(1 - alpha)/2 ||beta||_2^2 + alpha * ||beta||_1]

现在看看这里,你会发现与欧几里得范数的优化相同的公式。 请注意,文档省略了截距w_0,相当于beta_0,但代码确实估计了它。另请注意,lambda变得alphaalpha变得rho...

"高斯

族"方面可能是指使用L2损失的事实,这对应于假设噪声是加性高斯的。

相关内容

  • 没有找到相关文章

最新更新