如何在H2O AutoML中禁用gpu



当我运行H2O AutoML的实验时,我得到了错误:">在抛出'thrust::system::system_error'实例后调用什么():parallel_for失败:无效的资源句柄"。这个错误信息来自XGBoost,这是由于GPU限制超过。

当我使用常规的XGBoost时,我将cuda可见设备参数设置为空白以禁用gpu。然而,这个参数在H2O AutoML - XGBoost实现中似乎被忽略了。

import os
os.environ["CUDA_VISIBLE_DEVICES"] = ""

目前,只有H2O AutoML可以在gpu上运行xgboost。

问题是有人知道如何在H2O AutoML中禁用gpu吗?

作为一种变通方法,我现在排除了XGBoost算法来运行我的实验。当我排除XGBoost时,麻烦就过去了,但我不想放弃XGBoost的功能。

from h2o.automl import H2OAutoML
model = H2OAutoML(max_runtime_secs = 60*60*2, exclude_algos = ["XGBoost"])

这绝对是一个疏忽,我们需要添加打开/关闭和/或指定GPU的能力。我为此开了一张票。我想知道是否有一种方法可以暂时禁用GPU在系统级(H2O/Python之外)在此期间?谢谢你的报告!

相关内容

  • 没有找到相关文章

最新更新