特别是,glmnet文档暗示它为回归创建了一个高斯族的"广义线性模型",而scikit-learn暗示没有这样的事情(即,它似乎是纯线性回归,而不是广义)。但我不确定这一点。
在您链接到的文档中,有一个优化问题,它准确地显示了 GLMnet 中优化的内容:
1/(2N) * sum_i(y_i - beta_0 - x_i^T beta) + lambda * [(1 - alpha)/2 ||beta||_2^2 + alpha * ||beta||_1]
现在看看这里,你会发现与欧几里得范数的优化相同的公式。 请注意,文档省略了截距w_0
,相当于beta_0
,但代码确实估计了它。另请注意,lambda
变得alpha
,alpha
变得rho
...
族"方面可能是指使用L2损失的事实,这对应于假设噪声是加性高斯的。