标题 | 简介 | 类型 | 公开时间 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
详情 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[SAFE-ID: JIWO-2025-2394] 作者: 浩丶轩 发表于: [2019-06-01]
本文共 [869] 位读者顶过
superl-url是一款开源的,并且功能强大的关键词URL采集工具,可以根据关键词,对搜索引擎内容检索结果的网址内容进行采集。 程序主要运用于安全渗透测试项目,以及批量评估各类CMS系统0DAY的影响程度,同时也是批量采集自己获取感兴趣的网站的一个小程序~~ 本来几年前就写好了,没什么技术含量,没想到小伙伴的使用需求还蛮大的,不敢私藏~~ 立了flag,git的star过200就一定抽时间去升级,这个flag已经实现,目前已经是4.0版本~~ 更新后就在这里发出来了。 优势介绍1.支持多搜索引擎,很方便添加集成。(已内置了百度,搜狗,360),结构模块化,很方便进行扩展,可以无限添加。 2.开源,跨平台,使用python开发; 3.做了兼容性优化,同时支持python2和python3; 4.支持自动过滤重复内容,支持过滤标题中存在指定关键词的内容,支持过滤域名; 5.保存方式同时支持本地txt和mysql数据库; 6.从搜索引擎采集到的地址,是真实网站地址,不是像百度快照那样的三方地址; 7.多进程同时采集。每个搜索引擎都单独一个进程; 8.可灵活的通过配置文件自定义要保存的结果格式。比如只输出带参数的原始真实URL,或者只输出域名,或者同时输出标题,搜索引擎名称。 9.可自定义每页采集时间间隔,防止被屏蔽; 运行效果
使用说明1.安装python2或者python3运行环境; 2.如果提示没有找到库,则需要安装依赖: 如果是python3,则:
[出自:jiwo.org]
如果是Python2,则:
3.根据自己的需要,修改根目录下的config.cfg配置文件。 配置文件说明
如果保存方式为Mysql,还需要执行以下sql创建表:
项目地址:【https://github.com/super-l/superl-url】 至于要不要再开发一个JAVA GUI版本的或者php写WEB版本的,先观望观望~ |