Board logo

标题: 请教wget下载网页出错的问题? [打印本页]

作者: tianzizhi     时间: 2006-12-25 02:29    标题: 请教wget下载网页出错的问题?

请问用wget如何下载下面这样类似的网页:
http://www.cn-dos.net/forum/viewthread.php?tid=21216&fpage=1
http://www.cn-dos.net/forum/viewthread.php?tid=21216

下载时老是出错
作者: lxmxn     时间: 2006-12-25 06:29

  上面一个连接出错是因为连接里面有CMD的特殊字符 & ,下面的连接就可以正确下载。

  解决办法是将 & 替换成 %26 ,再用wget下载。
wget -O f.html http://www.cn-dos.net/forum/viewthread.php?tid=21216%26fpage=1


[ Last edited by lxmxn on 2006-12-24 at 05:31 PM ]
作者: vkill     时间: 2006-12-25 06:33
什么错误提示???我试了可以

C:\>wget "http://www.cn-dos.net/forum/viewthread.php?tid=21216"
--17:28:39--  http://www.cn-dos.net/forum/viewthread.php?tid=21216
           => `viewthread.php@tid=21216'
Resolving www.cn-dos.net... 58.215.64.130
Connecting to www.cn-dos.net|58.215.64.130|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]

    [   <=>                               ] 17,255        13.31K/s
作者: vkill     时间: 2006-12-25 06:38
wget "url"

怎么这样的问题还会出错那?加引号
作者: tianzizhi     时间: 2006-12-25 07:01
我试了lxmxn的可以的,在&加个^也可以的.
错误提示为:
--17:48:02--  http://www.cn-dos.net:80/forum/viewthread.php?tid=21216
           => `viewthread.php?tid=21216'
Connecting to www.cn-dos.net:80... connected!
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
viewthread.php?tid=21216: Invalid argument

Cannot write to `viewthread.php?tid=21216' (Invalid argument).

现在我知道了要加参数 -O 说明写入文件位置才行,我不明白vkill试的怎么没出错,可能是wget版本不同吧,我是版本是:1.5.3 可能比较旧吧.

不过这样下载的网页,只有一个网页,没有图片或其它网页本来有的东西,我想知道怎么用wget下载下来的网页和网页另存为效果一样,就是有一个文件夹放一些网页的附属物,如图片等.谢谢

[ Last edited by tianzizhi on 2006-12-25 at 07:16 AM ]
作者: vkill     时间: 2006-12-25 07:50
我用的是wget 1.10.2
作者: tianzizhi     时间: 2006-12-25 07:56
我也刚下了个1.10.2版本的,这个功能强.
作者: lxmxn     时间: 2007-4-21 07:17


  Quote:
不过这样下载的网页,只有一个网页,没有图片或其它网页本来有的东西,我想知道怎么用wget下载下来的网页和网页另存为效果一样,就是有一个文件夹放一些网页的附属物,如图片等.谢谢

这个值得考虑一下,不知道vkill兄有没有方法哈。
作者: vkill     时间: 2007-4-24 00:22


  Quote:
Originally posted by lxmxn at 2007-4-21 07:17:

这个值得考虑一下,不知道vkill兄有没有方法哈。

wget -m -k "url"
作者: lxmxn     时间: 2007-4-24 12:58
To vkill:

这个-m -k参数结合果然强,貌似可以下载一个站的所有东东哦?