机器学习算法,用于预测/查找/收敛以纠正数学模型中的参数



我目前正在尝试找到一种机器学习算法,可以预测数学模型(MM(中使用的大约5-15个参数。MM有4个不同的常微分方程(ODE(,并且将添加更多,因此需要更多的参数。大多数参数都可以测量,但其他参数需要猜测。我们知道所有 15 个参数,但我们希望计算机猜测 5 个甚至 10 个。为了测试参数是否正确,我们在MM中填写参数,然后用数值方法计算常微分方程。随后,我们计算具有我们知道(并想要猜测(的参数的模型计算与我们猜测参数的MM计算值之间的误差。计算模型常微分方程的值是多次完成的,常微分方程实时代表一分钟,我们计算 24 小时,因此计算 1440 次。

目前,我们正在使用粒子过滤器来gue变量,这工作正常,但我们想看看是否有更好的方法来gue模型中的参数。粒子过滤器为参数取一个随机值,该值位于我们知道的参数范围之间,例如 0,001 - 0,01。这是针对需要猜测的每个参数完成的。

如果你可以运行很多完整的模拟(数万个(,你可以尝试黑盒优化。我不确定黑盒是否适合您(我不熟悉粒子过滤器(。但如果是这样,CMA-ES在这里是一个明确的匹配,并且很容易尝试。

您必须为参数指定损失函数(例如,整个模拟的平方误差总和(和初始猜测(平均值和西格玛(。在黑盒算法中,CMA-ES是一个成熟的基线。如果您只有几个(最多几百个(连续参数并且没有梯度信息,则很难被击败。但是,任何不那么黑匣子的东西都可以利用问题的ODE性质,会做得更好。

最新更新