使用 Java API 调用 Kubernetes Spark Operator



有很多很好的例子,使用 Kubernetes Spark Operator 创建 Spark 作业,只需提交如下请求

kubectl apply -f spark-pi.yaml

spark-pi.yaml 可以在 这里

有谁知道使用 Java K8s API 提交此类作业的最简单方法?

我建议研究一下Apache Spark在K8s中使用的Fabric8 K8s客户端或官方Java K8s客户端。使用这些库,您可以使用代码提交 K8s 资源。

我已经编写了一个应用程序来向 Kubernetes 提交 Spark 作业,您只需要传递 Config Map(应用程序的键值对(

你可以在github的类RunSparkJobInKube(jobConfiguration: Map[String,String])下找到相同的内容

这可能有助于您提供满足您需求的想法。

虽然这是Scala,但你可以在Java内部调用普通方法。

在此应用程序中,我已经与IAM(特定于AWS(集成,以防您对安全性感兴趣。

我已经生成了 Spark 运算符 Java 客户端,用于将 Spark 作业提交给 Kubernetes。我正在分享存储库客户端-java-spark-operator 的 Github URL

相关内容

  • 没有找到相关文章

最新更新