百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

介绍一个渗透测试中使用的WEB扫描工具:Skipfish

moboyou 2025-07-02 05:46 4 浏览

Skipfish简介

Skipfish是一款主动的、轻量级的Web应用程序安全侦察工具。它通过执行递归爬取和基于字典的探测来为目标站点准备交互式站点地图。该工具生成的最终报告旨在作为专业Web应用程序安全评估的基础,就是主要关注的点是程序代码层面的问题。

Skipfish特点

主要特征是这些:

  • 高速:纯C代码,高度优化的HTTP处理,最小的CPU占用空间,能够轻松实现响应目标每秒两千个请求;
  • 易于使用:启发式的使用方式,支持各种古怪的Web框架和混合技术站点,具有自动学习功能,动态词汇表创建和表单自动完成功能;
  • 尖端的安全逻辑:高质量,低误报率,拆分安全检查,能够发现一系列细微的缺陷,包括矢量注入。

Skipfish实际操作

Skipfish在kali系统中是预装的,这里就不介绍具体安装了。

首先还是可以通过-h的命令查看Skipfish的帮助说明,可以看到支持的各种参数和使用方式:

其中有些比较实用的参数可以记一下:

-I	大写i,当传入url文档时,只检查包含'string'的 URL
-X	不检查包含'string'的URL,例如:logout
-K	不对指定参数进行Fuzz测试
-D	跨站点爬另外一个域
-l	每秒最大请求数
-m	每IP最大并发连接数
--config	指定配置文件

当遇到扫描速度太快,触发了目标站点的连接数限制,通过降低-m和-l数值即可。

扫描目标网址:

skipfish -o 扫描结果存放目录 目标地址

在正式开始扫描之前会有一些提示语,比如需要中途停止该怎么做、按空格可以切换到扫描详细信息之类的。

当被扫描的是多个url时,可以将这多个url写入到一个txt文档里,让skipfish遍历txt中的url进行扫描:

skipfish -o 扫描结果存放目录 @存了url的文档

如果url.txt文档中只有符合某些过滤条件的url才需要被扫描,skipfish也提供了过滤功能,可以通过参数-I实现:

# url中必须包含字符串:/dvwa/ 才会被扫描
skipfish -o 扫描结果存放目录 -I /dvwa/ http://192.168.98.169/dvwa/

扫描结束后会给出这个提示:

不过我这个是被手动停止的,因为完整扫描太耗时间了。

这是扫描后给出的报告:

前面说过skipfish可以使用字典可发现隐藏目录,具体方式如下:

skipfish -o 扫描结果存放目录 -S 字典 -W 将特殊的字符串写入到指定字典 http://192.168.98.169/dvwa/

kali中有一些提供给skipfish使用的字典:

上面这些字典都可以通过-S进行使用。

skipfish提供了有些身份认证的参数:

其中比较使用的是-A,直接跟用户名:密码,不过现在的很多web应该都不能使用了,所以这种方式做测试还行,对于真正的入侵、渗透,就不是很好用了。

还有一个-C可以直接使用本地的cookie,这个相对实用一下,前提是你有cookie。一般有账号就能在本地生成cookie,可以在浏览器上找到:

在skipfish中使用cookie:

skipfish -o dvwaResult1 -C "PHPSESSID=affdcb6c159f4e4524dde145a410f80c" -C "security=low" -I /dvwa/ http://192.168.0.101/dvwa/

除了上面两种认证方式,skipfish还有一种提交表单的方式来进行认证,不过说实话,现在的登录都是有验证码的,直接提交账户和密码,大概率是不会成功的,不过还是介绍一下:

具体的操作:

skipfish -o dvwaResult2 --auth-form http://192.168.0.101/dvwa/login.php  --auth-user admin --auth-pass password --auth-verify-url http://192.168.0.101/dvwa/index.php -I /dvwa/ -X logout.php http://192.168.0.101/dvwa/

上面这样传,其实是让skipfish自己判断user和password填入的位置。当skipfish无法准确填入user和password时,可以认为指定填入位置:

skipfish -o dvwaResult3 --auth-form http://192.168.0.101/dvwa/login.php --auth-form-target http://192.168.0.101/dvwa/login.php --auth-user-field username  --auth-user admin --auth-pass-field password --auth-pass password --auth-verify-url http://192.168.0.101/dvwa/index.php -I /dvwa/ -X logout.php http://192.168.0.101/dvwa/

参数--auth-form-target后面跟的是接收表单的地址,有些网站接收表单的网址和提交表单网址不是同一个。

参数--auth-user-field和--auth-pass-field后面跟的是页面元素中的name属性:

总结

整体来说skipfish的功能还是比较不错的,对于内部测试来说是一个比较好用的工具。对于公网中的实际渗透工作,其实限制还是挺多的。

相关推荐

php宝塔搭建部署实战服务类家政钟点工保姆网站源码

大家好啊,我是测评君,欢迎来到web测评。本期给大家带来一套php开发的服务类家政钟点工保姆网站源码,感兴趣的朋友可以自行下载学习。技术架构PHP7.2+nginx+mysql5.7+JS...

360自动收录简介及添加360自动收录功能的详细教程

以前我们都是为博客站点添加百度实时推送功能,现在360已经推出了自动收录功能,个人认为这个功能应该跟百度的实时推送功能差不多,所以我们也应该添加上这个功能,毕竟360在国内的份额还是不少的。360自动...

介绍一个渗透测试中使用的WEB扫描工具:Skipfish

Skipfish简介Skipfish是一款主动的、轻量级的Web应用程序安全侦察工具。它通过执行递归爬取和基于字典的探测来为目标站点准备交互式站点地图。该工具生成的最终报告旨在作为专业Web应用程序安...

好程序员大数据培训分享Apache-Hadoop简介

好程序员大数据培训分享Apache-Hadoop简介  好程序员大数据培训分享Apache-Hadoop简介,一、Hadoop出现的原因:现在的我们,生活在数据大爆炸的年代。国际数据公司已经预测在20...

LPL比赛数据可视化,完成这个项目,用尽了我的所有Python知识

LPL比赛数据可视化效果图完成这个项目,我感觉我已经被掏空了,我几乎用尽了我会的所有知识html+css+javascript+jQuery+python+requests+numpy+mysql+p...

网站被谷歌标记“有垃圾内容”但找不到具体页面?

谷歌的垃圾内容判定机制复杂,有时违规页面藏得深(如用户注册页、旧测试内容),或是因第三方插件漏洞被注入垃圾代码,导致站长反复排查仍毫无头绪。本文提供一套低成本、高执行性的解决方案。你将学会如何利用谷歌...

黑客必学知识点--如何轻松绕过CDN,找到真实的IP地址

信息收集(二)1、cms识别基础为什么要找CMS信息呢?因为有了CMS信息之后,会给我们很多便利,我们可以搜索相应CMS,有没有公开的漏洞利用根据敏感文件的判断:robots.txt文件robots....

Scrapy 爬虫完整案例-提升篇

1Scrapy爬虫完整案例-提升篇1.1Scrapy爬虫进阶案例一Scrapy爬虫案例:东莞阳光热线问政平台。网站地址:http://wz.sun0769.com/index.php/que...

如何写一个疯狂的爬虫!

自己在做张大妈比价(http://hizdm.com)的时候我先后写了两个版本的爬虫(php版本和python版本),虽然我试图将他们伪装的很像人但是由于京东的价格接口是一个对外开放的接口,如果访问频...

程序员简历例句—范例Java、Python、C++模板

个人简介通用简介:有良好的代码风格,通过添加注释提高代码可读性,注重代码质量,研读过XXX,XXX等多个开源项目源码从而学习增强代码的健壮性与扩展性。具备良好的代码编程习惯及文档编写能力,参与多个高...

Python爬虫高级之JS渗透登录新浪微博 | 知了独家研究

小伙伴们看到标题可能会想,我能直接自己登陆把登陆后的cookie复制下来加到自定义的请求头里面不香嘛,为什么非要用python模拟登录的过程?如果我们是长期爬取数据,比如每天早上中午和晚上定时爬取新浪...

使用Selenium实现微博爬虫:预登录、展开全文、翻页

前言想实现爬微博的自由吗?这里可以实现了!本文可以解决微博预登录、识别“展开全文”并爬取完整数据、翻页设置等问题。一、区分动态爬虫和静态爬虫1、静态网页静态网页是纯粹的HTML,没有后台数据库,不含程...

《孤注一掷》关于黑客的彩蛋,你知道多少?

电影总是能引发人们的好奇心,尤其是近日上映的电影《孤注一掷》。这部电影由宁浩监制,申奥编剧执导,是一部反诈骗犯罪片。今天给大家讲解一下影片潘生用的什么语言,以及写了哪些程序。揭秘影片中的SQL注入手法...

python爬虫实战之Headers信息校验-Cookie

一、什么是cookie上期我们了解了User-Agent,这期我们来看下如何利用Cookie进行用户模拟登录从而进行网站数据的爬取。首先让我们来了解下什么是Cookie:Cookie指某些网站为了辨别...

「2022 年」崔庆才 Python3 爬虫教程 - urllib 爬虫初体验

首先我们介绍一个Python库,叫做urllib,利用它我们可以实现HTTP请求的发送,而不用去关心HTTP协议本身甚至更低层的实现。我们只需要指定请求的URL、请求头、请求体等信息即...