如何在Hadoop Mapreduce程序中使用机器学习算法



如何在Hadoop Map-reduce程序中使用机器学习算法 ?我想用分类算法,决策树,聚类算法。除了Mahout之外,请提出一些建议

您可以编写自己的MapReduce程序并调用mapper和reducer中的第三方机器学习算法。有几个开源的机器学习库可用,如Weka, open nlp, ctakes, mallet,uima等…

另一个最好的方法是在Hadoop之上使用Spark ML lib或H2O, Oryix

另一个解决方案:使用PMML和JPMMLR、Weka、SAS等机器学习工具与Hadoop集成。您可以使用任何一种工具(R, SAS, Weka)开发模型,并在JPMML的帮助下在MapReduce程序中使用模型。

相关内容

  • 没有找到相关文章