是否使用高阶函数&Lambdas使运行时间&记忆效率是好是坏?例如,要将列表中的所有数字相乘:
nums = [1,2,3,4,5]
prod = 1
for n in nums:
prod*=n
与
prod2 = reduce(lambda x,y:x*y , nums)
除了较少的代码行/使用功能性方法之外,HOF版本比循环版本有什么优势吗?
编辑:
我无法将此作为回答,因为我没有所需的声誉。我绑在侧面的循环&使用@DSM 建议的timeit的HOF方法
def test1():
s= """
nums = [a for a in range(1,1001)]
prod = 1
for n in nums:
prod*=n
"""
t = timeit.Timer(stmt=s)
return t.repeat(repeat=10,number=100)
def test2():
s="""
nums = [a for a in range(1,1001)]
prod2 = reduce(lambda x,y:x*y , nums)
"""
t = timeit.Timer(stmt=s)
return t.repeat(repeat=10,number=100)
这就是我的结果:
Loop:
[0.08340786340144211, 0.07211491653462579, 0.07162720686361926, 0.06593182661083438, 0.06399049758613146, 0.06605228229559557, 0.06419744588664211, 0.0671893658461038, 0.06477527090075941, 0.06418023793167627]
test1 average: 0.0644778902685
HOF:
[0.0759414223099324, 0.07616920129277016, 0.07570730355421262, 0.07604965128984942, 0.07547092059389193, 0.07544737286604364, 0.075532959799953, 0.0755039779810629, 0.07567424616704144, 0.07542563650187661]
test2 average: 0.0754917512762
平均而言,循环方法似乎比使用HOF更快。
高阶函数可以非常快。
例如,map(ord, somebigstring)
比等价列表理解[ord(c) for c in somebigstring]
快得多。前者获胜有三个原因:
-
map()将结果字符串的大小预先设置为somebigstring的长度。相反,列表理解必须在其增长过程中多次调用realloc()。
-
map()只需要对ord进行一次查找,首先检查全局,然后在内置中检查并找到它。列表理解必须在每次迭代中重复这项工作。
-
map的内部循环以C速度运行。列表理解的循环体是一系列纯Python步骤,每个步骤都需要由eval循环调度或处理。
以下是一些确认预测的时间:
>>> from timeit import Timer
>>> print min(Timer('map(ord, s)', 's="x"*10000').repeat(7, 1000))
0.808364152908
>>> print min(Timer('[ord(c) for c in s]', 's="x"*10000').repeat(7, 1000))
1.2946639061
根据我的经验,循环可以做得很快,只要它们嵌套得不太深,对于复杂的高等数学运算,对于简单的运算和单层循环,它可以像任何其他方式一样快,也许更快,只要只使用整数作为一个或多个循环的索引,这实际上取决于你在做什么
此外,很可能高阶函数会产生同样多的循环作为循环程序的版本,甚至可能会慢一点,您必须对它们进行计时。。。只是为了确定。