克隆作业等待问题



我在 ubuntu 服务器上运行 python 脚本,尽管 cronjob bellow 是我的 bash 文件内容

#!/bin/bash
cd /home/ubuntu/
PATH=$PATH:/usr/local/bin
export PATH
nohup scrapy crawl first_job &
nohup scrapy crawl second_job &
nohup scrapy crawl third_job &
wait $(pgrep third_job)
nohup scrapy crawl fourth_job &

我想要的是fourth_job完成后立即开始执行third_job

目前即使third_job完成,fouth_job等待完成first_jobsecond_job

提前致谢

获取最后一个后台进程的 PID 的更安全方法是记住 $!

nohup scrapy crawl third_job &
PID=$!
wait $PID

相关内容

  • 没有找到相关文章

最新更新