Board logo

标题: 求助贴:用WGET批量下载网页 [打印本页]

作者: gene771771     时间: 2007-7-3 11:29    标题: 求助贴:用WGET批量下载网页
因为学习的原因,好久没有来这里了。。。终于,快毕业了,我把学校网络上的免费资料全部下载下来,于是想到用WGET,但是其中涉及到三个变量,我不知道怎么写了,所以来求助。。。谢谢热心的朋友们。。。

我想要下载的网页是
http://202.202.12.56:8088/qikan/periodical.articles/kjjjsc/kjjj2006/0612pdf/061299.pdf
...
http://202.202.12.56:8088/qikan/periodical.articles/kjjjsc/kjjj2006/0612pdf/061201.pdf
...
http://202.202.12.56:8088/qikan/periodical.articles/kjjjsc/kjjj2006/0601pdf/060199.pdf
...
http://202.202.12.56:8088/qikan/periodical.articles/kjjjsc/kjjj2006/0601pdf/060101.pdf
...
http://202.202.12.56:8088/qikan/periodical.articles/kjjjsc/kjjj2005/0512pdf/051299.pdf
...
http://202.202.12.56:8088/qikan/periodical.articles/kjjjsc/kjjj2005/0512pdf/051201.pdf
...

发现规律了吗,年月日都在变化的。。。我只会单一变量的。。。头疼~~~

Last edited by gene771771 on 2007-7-3 at 11:30 AM ]

作者: lxmxn     时间: 2007-7-3 11:47
用批处理将地址写入url.txt文件,然后wget -i url.txt即可。

作者: gene771771     时间: 2007-7-3 11:51
谢谢斑竹,但是,要下载的地址太多了,要是全部导入*.txt太费事的吧,能不能用个FOR循环?

作者: lxmxn     时间: 2007-7-3 11:53
用批处理的话很快的。

是从200几年的地址开始下载呢还是从2005-2006?

作者: gene771771     时间: 2007-7-3 11:56
从1999--2006 每年都有01-12期,每期都有01-99页

作者: lxmxn     时间: 2007-7-3 12:05
@echo off&SetLocal EnableDelayedExpansion
for /L %%a in (1999 1 2006) do (
set year=%%a
set year=!year:~-2!
for /L %%b in (1 1 12) do (
set mouth=0%%b
set mouth=!mouth:~-2!
for /l %%c in (1,1,99) do (
set count=0%%c
set count=!count:~-2!
>>url.txt echo\http://202.202.12.56:8088/qikan/periodical.articles/kjjjsc/kjjj%%a/!year!!mouth!pdf/%%a!mouth!!count!.pdf
)
)
)
start url.txt

生成rul.txt,数量比较大,可能时间比较久点。

作者: gene771771     时间: 2007-7-3 15:43
谢谢你,我已经在下载了。。。