Pyspark Jupyter-Docker:在Jupyter/Pyspark笔记本中定义主节点和工作节点后,如何重建和



如何在添加/修改jupyter pyspark笔记本docker容器中的脚本后重建该容器?

我的要求如下后拉jupyter/pyspark笔记本

  1. 在集群中创建一个Master和worker节点,作为Master和worker的2容器1
  2. 构建镜像/容器作为docker容器化应用程序
  3. 将此容器部署为微服务应用程序

我没有看到任何与此相关的合适文章或文档。。

如果有人能帮上忙,不胜感激?

感谢

关注博客文章。

  1. 拉动jupyter/pyspark-notebook并运行
  2. 修改
  3. 通过"docker Commit"将自定义docker映像提交到docker hub。为此,您可能需要登录到dockerhub
  4. 从docker hub检查您的自定义图像
  5. 从应用程序中提取docker图像

最新更新