如何确保Spark使用每个阶段使用的集合执行器的数量



我发现一些中间阶段使用的执行器数量(远远(少于spark.executor.instances的值。

当前,spark.executor.instances被设置为spark.dynamicAllocation.enabled被设置为假

我们还尝试将spark.dynamicAllocation.enabled设置为true,并将spark.dynamicAllocation.minExecutors设置为某个值。

但是,在这两种情况下,spark.dynamicAllocation.minExecutorsspark.executor.instances似乎都被忽略了。

我想知道是否有人知道如何进一步调查,或者根本原因是什么。

编辑:当启用动态分配时,我们还设置了spark.dynamicAllocation.maxExecutors

尝试设置

spark.dynamicAllocation.maxExecutors

最新更新