高阶函数与循环 - 运行时间和内存效率?



是否使用高阶函数&Lambdas使运行时间&记忆效率是好是坏?例如,要将列表中的所有数字相乘:

nums = [1,2,3,4,5]
prod = 1
for n in nums:
    prod*=n

prod2 = reduce(lambda x,y:x*y , nums)

除了较少的代码行/使用功能性方法之外,HOF版本比循环版本有什么优势吗?

编辑:

我无法将此作为回答,因为我没有所需的声誉。我绑在侧面的循环&使用@DSM 建议的timeit的HOF方法

def test1():         
    s= """
    nums = [a for a in range(1,1001)] 
    prod = 1 
    for n in nums:
        prod*=n
    """            
    t = timeit.Timer(stmt=s)
    return t.repeat(repeat=10,number=100)    
def test2():
    s="""
    nums = [a for a in range(1,1001)]     
    prod2 = reduce(lambda x,y:x*y , nums)
    """
    t = timeit.Timer(stmt=s)
    return t.repeat(repeat=10,number=100) 

这就是我的结果:

Loop:
[0.08340786340144211, 0.07211491653462579, 0.07162720686361926, 0.06593182661083438, 0.06399049758613146, 0.06605228229559557, 0.06419744588664211, 0.0671893658461038, 0.06477527090075941, 0.06418023793167627]
test1 average: 0.0644778902685
HOF:
[0.0759414223099324, 0.07616920129277016, 0.07570730355421262, 0.07604965128984942, 0.07547092059389193, 0.07544737286604364, 0.075532959799953, 0.0755039779810629, 0.07567424616704144, 0.07542563650187661]
test2 average: 0.0754917512762

平均而言,循环方法似乎比使用HOF更快。

高阶函数可以非常快。

例如,map(ord, somebigstring)比等价列表理解[ord(c) for c in somebigstring]快得多。前者获胜有三个原因:

  • map()将结果字符串的大小预先设置为somebigstring的长度。相反,列表理解必须在其增长过程中多次调用realloc()

  • map()只需要对ord进行一次查找,首先检查全局,然后在内置中检查并找到它。列表理解必须在每次迭代中重复这项工作。

  • map的内部循环以C速度运行。列表理解的循环体是一系列纯Python步骤,每个步骤都需要由eval循环调度或处理。

以下是一些确认预测的时间:

>>> from timeit import Timer
>>> print min(Timer('map(ord, s)', 's="x"*10000').repeat(7, 1000))
0.808364152908
>>> print min(Timer('[ord(c) for c in s]', 's="x"*10000').repeat(7, 1000))
1.2946639061

根据我的经验,循环可以做得很快,只要它们嵌套得不太深,对于复杂的高等数学运算,对于简单的运算和单层循环,它可以像任何其他方式一样快,也许更快,只要只使用整数作为一个或多个循环的索引,这实际上取决于你在做什么

此外,很可能高阶函数会产生同样多的循环作为循环程序的版本,甚至可能会慢一点,您必须对它们进行计时。。。只是为了确定。

最新更新