R - MLR - randomForestSRC - 模型大小巨大,预测时间非常慢 - 如何减少两者?



使用 MLR 训练分类 randomForestSRC (https://www.rdocumentation.org/packages/randomForestSRC/versions/2.6.0( 后,模型大小为 GB 数,每个实例的预测时间非常慢。

我们可以从模型中剥离出什么来减小大小,并且可能还可以减少预测时间?

请注意,一些测试表明,预测 100 个项目的速度与预测 1 的速度基本相同。

**Prediction: 1 observations**
predict.type: prob
threshold: 0=0.50,1=0.50
**time: 70.25**
**Prediction: 100 observations**
predict.type: prob
threshold: 0=0.50,1=0.50
**time: 69.82**

https://kogalur.github.io/randomForestSRC/theory.html

您可以调整一些参数来减小模型的大小。特别:

  • 减少树木的ntree
  • 增加每个叶子大量数据点的nodesize
  • 降低nodedepth以获得更浅的树木

如果您不绑定到分类林的此特定实现,则可能需要尝试 ranger ("classif.ranger"(。

您可以在此处找到实现的比较: https://www.jstatsoft.org/article/view/v077i01

相关内容

  • 没有找到相关文章

最新更新