Scipy:最小化给定边界的冲突



我正在尝试使用具有简单a <= x <= b边界的scipy.optimize.minimize。但是,经常发生我的目标函数在边界之外求值的情况。据我了解,当minimize尝试确定目标函数在边界处的梯度时,就会发生这种情况。


最小示例:

import math
import numpy as np
from scipy.optimize import Bounds, minimize
constraint = Bounds([-1, -1], [1, 1], True)
def fun(x):
print(x)
return -math.exp(-np.dot(x,x))
result = minimize(fun, [-1, -1], bounds=constraint)

输出显示最小化器跳转到点[1,1],然后尝试在[1.00000001, 1]处求值:

[-1. -1.]
[-0.99999999 -1.        ]
[-1.         -0.99999999]
[-0.72932943 -0.72932943]
[-0.72932942 -0.72932943]
[-0.72932943 -0.72932942]
[-0.22590689 -0.22590689]
[-0.22590688 -0.22590689]
[-0.22590689 -0.22590688]
[1. 1.]
[1.00000001 1.        ]
[1.         1.00000001]
[-0.03437328 -0.03437328]
...

当然,在这个例子中没有问题,因为fun也可以在那里进行评估。但情况可能并非总是如此...


在我的实际问题中,最小值不能在边界上,我有一个简单的解决方法,即在边界上添加一个 epsilon。 但是人们会期望这个问题应该有一个简单的解决方案,如果最小值可以在边界处,它也有效?

PS:如果我是第一个遇到这个问题的人,那就太奇怪了——对不起,如果这个问题之前在某个地方被问过,但我在任何地方都没有找到它。

正如这里所讨论的(感谢@"欢迎来到堆栈溢出"的评论将我引导到那里(,问题确实是梯度例程不尊重边界。 我写了一个新的来完成这项工作:

import math
import numpy as np
from scipy.optimize import minimize
def gradient_respecting_bounds(bounds, fun, eps=1e-8):
"""bounds: list of tuples (lower, upper)"""
def gradient(x):
fx = fun(x)
grad = np.zeros(len(x))
for k in range(len(x)):
d = np.zeros(len(x))
d[k] = eps if x[k] + eps <= bounds[k][1] else -eps
grad[k] = (fun(x + d) - fx) / d[k]
return grad
return gradient
bounds = ((-1, 1), (-1, 1))
def fun(x):
print(x)
return -math.exp(-np.dot(x,x))
result = minimize(fun, [-1, -1], bounds=bounds,
jac=gradient_respecting_bounds(bounds, fun))

请注意,这可能效率会降低一些,因为fun(x)现在每个点都会被评估两次。 这似乎是不可避免的,来自 lbfgsb.py_minimize_lbfgsb的相关片段:

if jac is None:
def func_and_grad(x):
f = fun(x, *args)
g = _approx_fprime_helper(x, fun, epsilon, args=args, f0=f)
return f, g
else:
def func_and_grad(x):
f = fun(x, *args)
g = jac(x, *args)
return f, g

如您所见,f的值只能由内部_approx_fprime_helper函数重用。

最新更新