如何检索 Dask-YARN 作业的工作线程日志



我有一个简单的 Dask-YARN 脚本,它只执行一项任务:从 HDFS 加载文件,如下所示。但是,我在代码中遇到了一个错误,所以我在函数中添加了一个 print 语句,但我在使用 yarn logs -applicationId {application_id} 获取的工作日志中没有看到该语句正在执行。我什至尝试了该方法Client.get_worker_logs(),但是它也没有显示stdout,只是显示了有关工人的一些INFO。代码执行完成后如何获取工作线程日志?

import sys
import numpy as np
import scipy.signal
import json
import dask
from dask.distributed import Client
from dask_yarn import YarnCluster

@dask.delayed
def load(input_file):
    print("In call of Load...")
    with open(input_file, "r") as fo:
        data = json.load(fo)
    return data

# Process input args
(_, filename) = sys.argv

dag_1 = {
    'load-1': (load, filename)
}
print("Building tasks...")
tasks = dask.get(dag_1, 'load-1')
print("Creating YARN cluster now...")
cluster = YarnCluster()
print("Scaling YARN cluster now...")
cluster.scale(1)
print("Creating Client now...")
client = Client(cluster)
print("Getting logs..1")
print(client.get_worker_logs())
print("Doing Dask computations now...")
dask.compute(tasks)
print("Getting logs..2")
print(client.get_worker_logs())
print("Shutting down cluster now...")
cluster.shutdown()

我不确定这里发生了什么,print 语句应该(并且通常确实(最终出现在 yarn 存储的日志文件中。

如果您希望调试语句出现在 get_worker_logs 的工作日志中,则可以直接使用工作记录器:

from distributed.worker import logger
logger.info("This will show up in the worker logs")

最新更新