如果我的spark 2.x应用程序中不需要缓存,建议我将spark.storage.fraction
设置为零。难道spark不知道在不进行缓存的情况下重用该空间吗?我真的应该告诉它缓存专用空间应该重新用于处理吗?
所以答案是肯定的,spark 2.x正在存储和处理之间重新分配堆空间。