机器学习和统计学习算法的区别令人困惑



我在一篇关于软件学习的IEEE事务中读到了这些行

"研究人员采用了无数不同的技术来构建软件故障预测模型。其中包括各种统计技术,如逻辑回归和朴素贝叶斯,它们明确地构建了潜在的概率模型。此外,不同的机器学习技术,如决策树、基于感知器概念的模型、支持向量机nd技术不显式地构建预测模型,而是着眼于一组最相似的已知的案例也已被调查。

任何人都能解释他们真正想要传达的东西吗。请举例说明。提前Thanx。

作者似乎区分了概率模型与非概率模型,即产生分布p(output | data)的模型与仅产生输出output = f(data)的模型。

不过,对非概率算法的描述对我来说有点奇怪。从模型和算法的角度来看,(线性)支持向量机、感知器和逻辑回归之间的差异并不是很大。暗示前者"看看一组最相似的已知案例",而后者似乎并不奇怪。

作者似乎在区分计算每类概率的模型(从中可以导出分类规则,将输入分配给最可能的类,或者更复杂的是,将输入指定给错误分类成本最低的类)和直接将输入分配到类而不通过每类概率为中间结果。

分类任务可以看作是一个决策问题;在这种情况下,需要每类概率和错误分类成本矩阵。我认为这种方法在当前许多关于机器学习的文本中都有描述,例如Brian Ripley的"模式识别和神经网络"以及Hastie、Tibshirani和Friedman的"统计学习的要素"。

作为元评论,您可能会在stats.stackexchange.com.

上获得更多关于此问题的关注

最新更新