• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    公众号

domain-crawling: 全自动爬取域名信息脚本,易扩展,注释全~

原作者: [db:作者] 来自: 网络 收藏 邀请

开源软件名称:

domain-crawling

开源软件地址:

https://gitee.com/ainilili/domain-crawling

开源软件介绍:

作用

闲来无事,写个脚本,用来爬取[a-z0-9]范围内指定长度的域名的注册信息,将未注册的域名信息写入指定文件中,供兄弟们自己分析!

语言

作为一名javaer,这个脚本使用py开发。

使用

先将domain-crawling拉到本地

git clone https://gitee.com/ainilili/domain-crawling.git

进入目录中执行py脚本

cd domain-crawling

通过--help参数查看帮助

shell>> py domain-crawling.py -husage: domain-crawling.py [-h] [-p PATH] [-l LENGTH] [-o {y,n}] [-d DELAYED]Nico domain name crawler scriptoptional arguments:  -h, --help            show this help message and exit  -p PATH, --path PATH  The available domain name storage path after                        detection.  -l LENGTH, --length LENGTH                        The length of the domain you want to detect is all                        combinations of a-z0-9.  -o {y,n}, --openproxy {y,n}                        Open the IP proxy mode.  -d DELAYED, --delayed DELAYED                        The interval between each climb, Unit s  -s SUFFIX, --suffix SUFFIX                       Domain suffix

直接启动脚本:

shell>> py domain-crawling.py

指定域名长度启动脚本:

shell>> py domain-crawling.py --length 4

这时爬取的域名长度是4(默认也是4),例如:

aaaa.combbbb.comcccc.com

指定爬取的域名(例如cn)后缀:

shell>> py domain-crawling.py --suffix cn

如果要开启代理(默认关闭):

shell>> py domain-crawling.py--openproxy y

如果更改数据保存文件(默认是时间戳.txt):

shell>> py domain-crawling.py --path data1

设置爬取间隔时间(默认是0.1s)为0.5s:

shell>> py domain-crawling.py --delayed 0.5

注意

笔者使用的是data5u的爬虫代理,如果您哟啊开启代理模式,脚本中自带的orderId很可能早已失效,请自行注册然后使用,如果您有更好的代理,可以更改源码替换之。


鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

专题导读
热门推荐
热门话题
阅读排行榜

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

139-2527-9053

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:深圳市南山区西丽大学城创智工业园
电邮:jeky_zhao#qq.com
移动电话:139-2527-9053

Powered by 互联科技 X3.4© 2001-2213 极客世界.|Sitemap