使用 GPU 训练模型



我对使用 GPU 训练模型有一点了解。我正在使用scikit-learn中的K-means来训练我的模型。由于我的数据非常大,是否可以使用 GPU 训练此模型以减少计算时间?或者您能否建议任何使用 GPU 功率的方法?

另一个问题是我是否使用TensorFlow来构建K-means,如本博客所示。

https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html

它会不会使用 GPU?

提前谢谢你。

要检查您的 GPU 是否支持 CUDA: https://developer.nvidia.com/cuda-gpus

到目前为止,Scikit-learn还没有支持CUDA。你可能想使用TensorFlow: https://www.tensorflow.org/install/install_linux

我希望这有所帮助。

如果您启用了 CUDA 的 GPU 具有计算能力 3.0 或更高版本,并安装了 GPU 支持的 Tensorflow 版本,那么它肯定会使用 GPU 进行训练。

有关 NVIDIA 要求运行支持 GPU 的 TensorFlow 的其他信息,请查看以下链接:

https://www.tensorflow.org/install/install_linux#nvidia_requirements_to_run_tensorflow_with_gpu_support

相关内容

  • 没有找到相关文章

最新更新