配置 Tensorflow 时,我在"compute capability list"字段中放了什么?



我正在从源构建TensorFlow,它要求我

Please specify a list of comma-separated Cuda compute capabilities you want to build with.
You can find the compute capability of your device at: https://developer.nvidia.com/cuda-gpus.
Please note that each additional compute capability significantly increases your build time and binary size.
[Default is: "3.5,5.2"]:

我发现这与我的卡计算功能有关(即5.0,btw),但显然这不是它想要的,因为它是一个数字,而不是列表。我找不到任何解释,也没有足够熟练的方式从源代码中理解它。我应该放什么?

总结评论作为答案:

您可以将5.0放在那里,这是您的卡支持的计算功能,应该是您的最佳选择。3.5太低(不使用卡的全部功能),而5.2太高(您的卡不支持);无论哪种情况,我都认为,在GPU执行之前,二进制代码将在5.0及时重新编译。如果您直接使用5.0,它不会仅在及时汇编中触发,并且会使用更优化的离线汇编。

如果您提供了一个列表,例如3.5,5.0,5.2,它将为脱机的所有三个计算功能进行编译,并允许在支持3.5或5.0或5.2的GPU卡上运行(更优化的)代码(更优化的)代码,而无需触发较少优化的即时编译。将更多计算功能放入列表中的成本是增加离线汇编时间和二进制大小。

转到https://developer.nvidia.com/cuda-gpus

并找出您的GPU。您会发现计算能力,例如我的6.1

最新更新