因此,我使用这里的超导数据集。。。它包含82个变量,我将数据细分为2000行。但当我将xgboost
与mlr3
一起使用时,它不会计算所有变量的重要性!?
以下是我设置一切的方式:
# Read in data
mydata <- read.csv("/Users/.../train.csv", sep = ",")
data <- mydata[1:2000,]
# set up xgboost using mlr3
myTaskXG = TaskRegr$new(id = "data", backend = data, target = "critical_temp")
myLrnXG = lrn("regr.xgboost")
myModXG <- myLrnXG$train(myTaskXG)
# Take a look at the importance
myLrnXG$importance()
它输出的内容如下:
wtd_mean_FusionHeat std_ThermalConductivity entropy_Density
0.685125173 0.105919410 0.078925149
wtd_gmean_FusionHeat wtd_range_atomic_radius entropy_FusionHeat
0.038797205 0.038461823 0.020889094
wtd_mean_Density wtd_std_FusionHeat gmean_ThermalConductivity
0.017211730 0.006662321 0.005598844
wtd_entropy_ElectronAffinity wtd_entropy_Density
0.001292733 0.001116518
正如你所看到的,那里只有11个变量。。。当应该有81时……如果我使用ranger
执行类似的过程,那么一切都会完美地工作。
有什么建议吗?
简短回答:{xgboost}不会返回所有变量。
更长的答案:
这不是一个mlr3
问题,而是一个关于xgboost
包的问题。来自该学习者的importance
方法简单地称为xgboost::xgb.importance
。如果你看看这个页面上的例子:
data(agaricus.train, package='xgboost')
bst <- xgboost(data = agaricus.train$data, label = agaricus.train$label, max_depth = 2,
eta = 1, nthread = 2, nrounds = 2, objective = "binary:logistic")
xgb.importance(model = bst)
这将返回
> xgb.importance(model = bst)
Feature Gain Cover Frequency
1: odor=none 0.67615471 0.4978746 0.4
2: stalk-root=club 0.17135375 0.1920543 0.2
3: stalk-root=rooted 0.12317236 0.1638750 0.2
4: spore-print-color=green 0.02931918 0.1461960 0.2
但是在整个数据集中有127个变量。
这背后的数学原理只是ranger和xgboost使用不同的重要性方法,xgboos特只包括拟合模型中实际使用的特征,而ranger使用杂质或置换,并考虑所有分割时的所有特征。
顺便说一句,下次请提供一个reprex(使用易于访问的数据和代码的简短可复制示例(。