如果不是为了提高速度,减少FLOPs和参数大小的目的是什么?



CNN算法如DenseNet DenseNet强调参数效率,这通常会导致更少的FLOPs。然而,我正在努力理解的是为什么这很重要。特别是对于DenseNet,它的推理速度很低。减小参数大小/FLOPs的目的不是为了减少推理时间吗?这些优化是否还有其他现实原因,比如更少的能源消耗?

总体推理时间与每个参数/FLOPs训练效率之间存在差异。在训练中具有较低的参数/FLOPs并不能保证较高的推理速度。因为总体推断取决于体系结构和预测的计算方式。

相关内容

  • 没有找到相关文章

最新更新