Kubernetes在同一个Pod中运行多个python脚本



我有4-5个Python脚本,它们是Kafka的消费者/生产者,需要运行到最后。

我可以为每个脚本创建容器,但之后我将有4-5个容器,如果出现任何故障,Kubernetes将对其进行管理。

但我想在单个Pod中运行所有这些,如果任何脚本失败,那么应该只启动该脚本,而不是整个Pod,整个Pod将启动在完美运行的脚本中发生的所有当前事务。

我们有办法做到这一点吗?或者最好的解决方案是什么——在每个容器中单独运行,或者在单个容器中运行。

如果将来有更多的脚本出现,那么我能做些什么来实现所需的行为。

REASON在1个pod中移动脚本-1个脚本~ 1个容器~ 400 MB。现在5个脚本~5个容器~2GB。

这不是建议的模式!建议每个容器一个进程!

在同一个容器中运行所有脚本将使用相同数量的RAM,或多或少(~2GB(容器的开销非常小。

您可以使用一些初始化进程(如s6(来运行所有5个脚本https://github.com/just-containers/s6-overlay并且s6将只负责启动停止的脚本

最新更新