信息收集技术之网站镜像克隆

艺帆风顺 发布于 2025-04-03 13 次阅读


        一个成功的渗透测试人员,在进行一次成功的渗透测试之前,必须能够获得尽可能多的信息,有时候一些场景需要复制整个网站用来进行离线评估。

前言

        当离线时,拥有 一份镜像进行持续观察很有效。Wooyun 被封杀,但是现在网上还有很多 Wooyun 镜像站,来继续发挥 Wooyun 的余热。镜像网站不会复制动态内容,也不会复制网站的中间件,因此这并不是对所有渗透测试环境都适用。国光我个人一般都是用来 “盗取” 炫酷的 HTML5 网站(嘘~~~),有时候用它离线存储一些网站,总之挺实用的。

使用 wget 复制克隆网站

介绍

        Kali linux 默认安装了 wget 工具,它简单使用,Pentest Box 中也集成了 wget 命令,只要在终端下敲几个命令,就可以下载整个网站的 HTML 文件。wget 不能复制服务器的程序页面,例如 PHP 脚本页面。

使用方法

终端下输入:

BASHwget -m -p -E -k -K -np -v http://www.baidu.com

这样就会把百度的首页复制下来,就是这么简单粗暴。这里使用了一连串的参数,可以使用 man 命令来查看 wget 的手册:

BASHman wget

wget 的主要参数如下:

VERILOGm: 镜像,选择该选项适用于 Web 站点    p: 页面获先决条件,该选项确保 包含了请求的 图片和 CSS 脚本文件被下载 (这样可以更好的复制 HTML5 的站点) E: 适用扩展,这可以在本地另存为一个 HTML 文件 k: 转换链接,确保文件被转换,用于本地浏览 K: 转换备份文件,将会以 orig 为后缀作为原始文件

复制网站时可能会发生错误,尤其是在复制动态脚本页面的时候,这是因为生成页面的大部分代码是由动态脚本创建的,大部分站点的应用程序是不能访问到的。

注:文件一旦被下载,切忌不可以让其他人浏览和重新发布站点,这会违反版权法。(当然功放演练的话,钓鱼攻击除外)

使用 HTTrack 复制克隆网站

介绍

        HTTrack 是一款免费的离线浏览器工具,和 wget 克隆复制镜像差不多,从服务器抓取 HTML 文件、图片、以及其他 CSS 文件并存储到你的计算机上。Kali 2.0 起默认预装了 HTTrack。

使用方法

终端下输入:

BASHhttrack

如果没有安装这个工具的话,那就现场安装一下吧,只需要 2 个命令:

BASHapt update && apt install httrack

这里提示要输入项目名称、存放网站的路径(默认为 /root/website) 和要克隆的目标站,我们这里以「搜狗浏览器官网」为例 先自定义输入「test」 然后 按下「 回车」

BASHsougou

然后默认路径 「回车」

输入想要克隆的网站

BASHhttp://ie.sougou.com

下面 HTTrack 提供了一些选项,我们一般选择第二本选项 Mirror Web Site(s) with Wizard(具有向导递归层级的镜像网站) 输入:2
「回车」「 回车」「 回车」 后面的一些基本设置 一般一直「回车」下去 直到网站开始克隆为止,HTTrack 就开始进行网站克隆了。

版权声明:本文内容来自个人博客:国光,遵循CC 4.0 BY-SA版权协议上原文出处链接及本声明。本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行可。原文链接:https://www.sqlsec.com/2016/10/web.html如有涉及到侵权,请联系,将立即予以删除处理。在此特别鸣谢原作者:国光的创作,Powered by Butterfly。本文发布已获原作者国光授权转载。此篇文章的所有版权归原作者所有,与本公众号无关,商业转载建议请联系原作权,非商业转载请注明出处。