如何在hadoop集群上安装Kafka



我想在包含2个主节点,2个边缘节点和8个数据节点的HortonWorks Hadoop集群上安装最新版本的Kafka。计划是在8个数据节点盒中的2个上安装Kafka。Kafka每天需要处理多达几百万个事件,并且可能需要处理一些0.5Gb-1.2Gb大小的批量文件副本。

问题:为了避免kafka(或数据节点)的潜在性能下降,我需要考虑对数据节点或kafka的任何特殊配置?

Kafka通常是如何部署的(在专用的盒子上还是可以在数据节点上运行)?

你可以通过Ambari安装kafka。进入Ambari主页->点击Action(左下角)->点击"Add Service"->选择"Kafka"->选择节点-> Deploy ->完成。你的集群上有kafka

你可以在"附录A"中看到这里的截图http://hortonworks.com/hadoop-tutorial/simulating-transporting-realtime-events-stream-apache-kafka/

相关内容

  • 没有找到相关文章

最新更新