CNN算法如DenseNet DenseNet强调参数效率,这通常会导致更少的FLOPs。然而,我正在努力理解的是为什么这很重要。特别是对于DenseNet,它的推理速度很低。减小参数大小/FLOPs的目的不是为了减少推理时间吗?这些优化是否还有其他现实原因,比如更少的能源消耗?
总体推理时间与每个参数/FLOPs训练效率之间存在差异。在训练中具有较低的参数/FLOPs并不能保证较高的推理速度。因为总体推断取决于体系结构和预测的计算方式。
CNN算法如DenseNet DenseNet强调参数效率,这通常会导致更少的FLOPs。然而,我正在努力理解的是为什么这很重要。特别是对于DenseNet,它的推理速度很低。减小参数大小/FLOPs的目的不是为了减少推理时间吗?这些优化是否还有其他现实原因,比如更少的能源消耗?
总体推理时间与每个参数/FLOPs训练效率之间存在差异。在训练中具有较低的参数/FLOPs并不能保证较高的推理速度。因为总体推断取决于体系结构和预测的计算方式。
javascript python java c# php android html jquery c++ css ios sql mysql arrays asp.net json python-3.x ruby-on-rails .net sql-server django objective-c excel regex ruby linux ajax iphone xml vba spring asp.net-mvc database wordpress string postgresql wpf windows xcode bash git oracle list vb.net multithreading eclipse algorithm macos powershell visual-studio image forms numpy scala function api selenium