使用linux从网站下载批处理文件



我想从一个网站下载一些文件(将近1000-2000个zip文件)。我可以坐在那里一个接一个地添加文件。请给我一个程序或脚本或任何方法,以便我可以自动下载。

我说的网站有下载链接

sitename.com/sometetx/date/12345/folder/12345_zip.zip

日期是可以处理的。主要的问题是12345之前和之后的文件夹,他们都同时改变。例如

sitename.com/sometetx/date/23456/folder/23456_zip.zipsitename.com/sometetx/date/54321/folder/54321_zip.zip

i tried using curl

sitename.com/sometetx/date/[12345 - 54321]/文件夹/[12345 - 54321]_zip.zip

,但它使许多组合下载,即保持左边的12345不变,从12345扫描到54321,左边的增量12345 +1,然后从[12345-54321]重复扫描。

也尝试bash wget在这里,我在两个地方有一个变量,当使用循环时,右边带有"_"的12345被程序忽略。请帮助我,我不太懂linux或编程,谢谢

为了让你的循环变量在_旁边不被shell忽略,把它放在引号里,像这样:

$ for ((i=10000; i < 99999; i++)); do  
    wget sitename.com/sometetx/date/$i/folder/"$i"_zip.zip; done

最新更新