我有一个环境,它将 4 个物理节点与少量 RAM 相结合,每个节点都有 8 个 CPU 内核。我注意到 Spark 会自动决定拆分每个 CPU 的 RAM。结果是发生内存错误。我正在使用大数据结构,我希望每个执行程序在物理节点上都有整个 RAM 内存(否则我会得到内存错误)。我试图在"yarn-site.xml"文件上配置"yarn.nodemanager.resource.cpu-vcores 1"或在spark-defaults.conf上配置"spark.driver.cores 1",但没有成功。
尝试设置spark.executor.cores 1