最大似然估计(MLE)是一种参数方法吗?



新颖性检测有两种主要的概率方法:参数方法和非参数方法。非para假设从训练数据中得到分布或密度函数,如核密度估计(例如:Parzen Windows),而para方法假设数据来自已知分布。

我不熟悉参数化方法。谁能给我展示一些著名的算法?顺便说一下,如果MLE是一种参数化的方法(密度曲线是已知的,然后找到最大值对应的参数)?

是的,MLE根据定义是一种参数化方法。你正在估计一个分布的参数,它使观测到数据的概率最大化。在两者之间,非参数方法通常意味着参数的无限个数,而不是没有参数。比如狄利克雷过程。

我想你对这里的许多术语感到困惑。

最大似然对于参数模型(例如高斯分布)是有意义的,因为参数的数量是先验固定的,因此询问"最佳"估计是有意义的。最大似然给你一个(许多)可能的答案。

理解非参数方法的一种方法是,它们具有的参数数量随着样本数量的增加而增加。因此,KDE对每个数据点有一个参数,外加一个带宽参数。MLE在这里意味着什么?当更多的数据到达时,参数的数量就会增加,因此对于一组固定的参数没有最佳值的意义。

相关内容

最新更新