我有两个随机变量的概率密度函数func1
和func2
(包括每个的support
)。现在我需要这两个随机变量之和的概率密度函数,我通过创建
import numpy as np
import scipy.integrate
[...]
def density_add(func1, func2, support):
return np.vectorize(lambda xi: scipy.integrate.simps(func1(support) * func2(xi-support), support))
问题在于巨大的冗余。许多值必须多次计算。所以我尝试缓存,但由于没有唯一名称的动态生成函数,出现了问题。
from joblib import Memory
mem = Memory(cachedir="/tmp/joblib", verbose=0)
[...]
def density_add(func1, func2, support):
return np.vectorize(mem.cache(lambda xi: scipy.integrate.simps(func1(support) * func2(xi-support), support))
/usr/lib/python3/dist-packages/numpy/lib/function_base.py:2232: JobLibCollisionWarning: Cannot detect name collisions for function '<lambda> [...]
/usr/lib/python3/dist-packages/numpy/lib/function_base.py:2232: JobLibCollisionWarning: Possible name collisions between functions '<lambda>' [...]
缓存这种动态生成的函数的更好方法是什么?
您能使用functools.lru_cache
吗?https://docs.python.org/3/library/functools.html#functools.lru_cache.它都在内存中,所以在程序重新启动之间会丢失值,但缓存会预热。
从functools导入lru_cache
lru_cache作为装饰器
>>> @lru_cache()
>>> def myfunc(x):
>>> print('sleeping')
>>> return x + 1
>>> myfunc(1)
sleeping
2
>>> myfunc(1)
2
lru_cache作为函数
>>> myfunc2 = lru_cache()(lambda x: myfunc(x) *2)
>>> myfunc2(2)
sleeping
6
>>> myfunc2(2)
6