有没有办法在Hadoop中杀死reducer任务



运行几个map减少作业,一个作业接管所有化简器容量。有没有办法杀死一个或两个化简器任务来释放集群?

我可以直接转到任务跟踪器服务器之一并手动终止 java 进程。但我想知道是否有更体面的方法可以做到这一点?

你可以通过以下方式杀死任务尝试:

hadoop job -kill-task [task_attempt_id]

要获取任务尝试 ID,您需要更深入地了解任务(通过单击作业跟踪器上的任务超链接)。

首先找到作业 ID:

hadoop job -list

现在,终止作业:

hadoop job -kill <job_ID_goes_here>
hadoop job -kill-task [attempt-id]其中

try-id可以从UI获得。

相关内容

  • 没有找到相关文章

最新更新