如何使用所有媒体保存公共html页面并保留结构

问题描述 投票:4回答:4

正在寻找Linux application (或Firefox扩展名),这将允许我抓取HTML模型并保持页面的完整性。

Firefox几乎完成了完美的工作,但没有抓取CSS中引用的图像。

用于Firefox的Scrapbook扩展程序可以获取所有内容,但可以平整目录结构。

如果所有文件夹都成为index页面的子文件夹,我不会很介意。

css screen-scraping screen directory-structure
4个回答
5
投票

请参见Website Mirroring With wget

wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com

2
投票

您是否尝试过wget?


1
投票

wget -r做您想要的,如果没有,那么有很多标记可以配置它。参见man wget

另一个选项是curl,它甚至更强大。参见http://curl.haxx.se/


0
投票

Teleport Pro非常适合这类事情。您可以将其指向完整的网站,它将在本地下载一个副本,以维护目录结构,并在必要时用相对链接替换绝对链接。您也可以指定是否要从其他第三方网站链接到原始网站。

© www.soinside.com 2019 - 2024. All rights reserved.