我有个问题。
pytorch中是否可以安装不同的图形卡并使用多GPU?还有其他问题吗?
Ex>pytorch的数据并行功能是否可用于3070(1ea(+3080(1aa(的组合?
提前感谢您的回复。
我相信在技术层面上这是可能的,但这将是次优的。在不同的GPU之间划分负载的代码假设它们是相同的。拥有不同的GPU基本上意味着您将根据您拥有的GPU的最小性能而受益
例如,如果您有一张1GB内存的卡和另一张10GB的卡,您将只能使用适合1GB卡的批处理,而第二张卡则有9GB未使用。