我有一个相当长的Spark作业,只包含一个映射操作。我尝试用不同数量的分区、执行器和我能提供的最大内存(16G + 2G开销)启动它几次。在我的最后一次尝试中,由于内存开销而杀死了几个执行器,但是,产生了输出,并且看起来很好(显然,我无法检查数据帧的所有行)。此外,我在输出目录中发现了一个_SUCCESS文件。
我应该相信我得到的输出吗?
我认为输出将是正确的,因为你有_SUCCESS文件,而且如果你的一些执行器因为内存不足而死亡,spark是容错的,所以工作负载将被转移到另一个执行器