将 Standby Masters 与 ZooKeeper with Hadoop 一起使用是否可以防止单点故障



在Hadoop中,名称节点是单点故障。如果你在旁边使用火花 hadoop 会照顾 Hadoop 通常会自行处理的单点故障吗?还是它仍然依赖于 hdfs 输入的 namenode

让我试着详细说明一下:

在Hadoop中,名称节点是单点故障。

好吧,如果您有 2 个 NameNode 的设置在主动-备用模式下使用 ZKFC(ZooKeeper 故障转移控制器)进行自动故障转移,在这种情况下,NameNode 不是单点故障。

如果你在旁边使用火花,Zookeeper会自行处理Hadoop通常会有的单点故障吗?

有多种方法可以在侧面hadoop上运行/使用Spark。

  • 使用 YARN 在容器上运行 Spark
  • 使用Spark
  • 的独立模式(使用自己的Spark主节点和worker),在这种情况下,您可以使用Zookeeper使Spark master高度可用,它负责做出调度决策。

还是它仍然依赖于 hdfs 输入的 namenode

是的,Spark仍然需要在NameNode上回复才能从HDFS读取数据。每个HDFS读/写请求都必须通过NameNode,NameNode具有提供实际数据所需的元数据信息。

最新更新