正在寻找Linux application
(或Firefox扩展名),这将允许我抓取HTML模型并保持页面的完整性。
Firefox几乎完成了完美的工作,但没有抓取CSS中引用的图像。
用于Firefox的Scrapbook扩展程序可以获取所有内容,但可以平整目录结构。
如果所有文件夹都成为index
页面的子文件夹,我不会很介意。
请参见Website Mirroring With wget
wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com
您是否尝试过wget?
wget -r
做您想要的,如果没有,那么有很多标记可以配置它。参见man wget
。
另一个选项是curl
,它甚至更强大。参见http://curl.haxx.se/。
Teleport Pro非常适合这类事情。您可以将其指向完整的网站,它将在本地下载一个副本,以维护目录结构,并在必要时用相对链接替换绝对链接。您也可以指定是否要从其他第三方网站链接到原始网站。