为集成机器学习模型堆栈派生预测效率和预测误差



我正在尝试为在 mlr 包中使用 makeStackedLearner 拟合的集成模型推导出预测误差。这些是我正在遵循的步骤:

> library(mlr)
> library(matrixStats)
> data(BostonHousing, package = "mlbench")
> tsk = makeRegrTask(data = BostonHousing, target = "medv")
> BostonHousing$chas = as.numeric(BostonHousing$chas)
> base = c("regr.rpart", "regr.svm", "regr.ranger")
> lrns = lapply(base, makeLearner)
> m = makeStackedLearner(base.learners = lrns,
+                        predict.type = "response", method = "stack.cv", super.learner = "regr.lm")
> tmp = train(m, tsk)
> summary(tmp$learner.model$super.model$learner.model)
Call:
stats::lm(formula = f, data = d)
Residuals:
Min       1Q   Median       3Q      Max 
-10.8014  -1.5154  -0.2479   1.2160  23.6530 
Coefficients:
Estimate Std. Error t value Pr(>|t|)    
(Intercept) -2.76991    0.43211  -6.410 3.35e-10 ***
regr.rpart  -0.09575    0.04858  -1.971   0.0493 *  
regr.svm     0.17379    0.07710   2.254   0.0246 *  
regr.ranger  1.04503    0.08904  11.736  < 2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 3.129 on 502 degrees of freedom
Multiple R-squared:  0.885, Adjusted R-squared:  0.8843 
F-statistic:  1287 on 3 and 502 DF,  p-value: < 2.2e-16
> res = predict(tmp, tsk)

请注意,我使用method = "stack.cv"这意味着任何时候使用makeStackedLearner改装模型时,数字都会略有不同。我的第一个问题是:

  1. super.learner模型导出的 R 平方是预测能力的客观度量吗?(我假设因为它是基于交叉验证和重新拟合它应该是(
> ## cross-validation R-square
> round(1-tmp$learner.model$super.model$learner.model$deviance /
+   tmp$learner.model$super.model$learner.model$null.deviance, 3)
[1] 0.872
  1. 如何推导出所有newdata行的预测误差(预测区间(?

我目前使用的方法只是推导出多个独立模型预测的标准偏差(即模型误差(:

> res.all <- getStackedBaseLearnerPredictions(tmp)
> wt <- summary(tmp$learner.model$super.model$learner.model)$coefficients[-1,4]
> res.all$model.error <- matrixStats::rowSds(
+        as.matrix(as.data.frame(res.all))[,which(wt<0.05)], na.rm=TRUE)
> res$data[1,]
id truth response
1  1    24 26.85235
> res.all$model.error[1]
[1] 2.24609

因此,在本例中,预测值为 26.85,真值为 24,预测误差估计为 2.24。同样,由于使用了stack.cv方法,因此每次重新调整模型时,都会得到略有不同的值。您是否知道任何类似的方法来推导集成模型的预测误差?提前谢谢。

为了得出预测区间(新数据中的单个误差(,我们可以使用predict.lm函数:

> m = makeStackedLearner(base.learners = lrns, predict.type = "response",
method = "stack.cv", super.learner = "regr.lm")
> tmp = train(m, tsk)
> tmp$learner.model$super.model$learner.model
Call:
stats::lm(formula = f, data = d)
Coefficients:
(Intercept)   regr.rpart     regr.svm  regr.ranger  
-2.5879      -0.0971       0.3549       0.8635  
> res.all <- getStackedBaseLearnerPredictions(tmp)
> pred.error = predict(tmp$learner.model$super.model$learner.model, 
newdata = res.all, interval = "prediction", level=2/3)
> str(pred.error)
num [1:506, 1:3] 29.3 23.3 34.6 36 33.6 ...
- attr(*, "dimnames")=List of 2
..$ : chr [1:506] "1" "2" "3" "4" ...
..$ : chr [1:3] "fit" "lwr" "upr"
> summary(tmp$learner.model$super.model$learner.model$residuals)
Min.  1st Qu.   Median     Mean  3rd Qu.     Max. 
-11.8037  -1.5931  -0.3161   0.0000   1.1951  29.2145 
> mean((pred.error[,3]-pred.error[,2])/2)
[1] 3.253142

这是lm模型作为超级学习者的示例。level参数可用于传递不同的概率(2/3 表示 1 个标准差(。newdata的预测值应略高于使用训练数据获得的预测值(取决于外推法(。这种方法也可以扩展到使用例如随机森林模型(参见游侠包(和预测区间的分位数回归随机森林推导(Hengl 等人,2019 年(。请注意,对于这种类型的分析,至少应该有两个基础学习器(推荐三个(。

相关内容

  • 没有找到相关文章

最新更新