历时大致两个月,到现在终于完成了高可用分布式代理IP池(https://github.com/SpiderClub/haipproxy),目前开源在了Github上。写这个项目的原因主要有两点,一是本人平时的部分工作需要和 络爬虫打交道,代理IP在有的时候还可以发挥非常重要的作用,调研过一些开源的代理IP采集程序,发现在爬取、解析、校验、资源调度等这些方面总有一些不尽人意的地方;二是和一个 友(不严格的说算得上是伯乐)的交流让小编有了关于使用Scrapy来写分布式 络爬虫的一些想法,正好还可以借助这个机会来尝试证实这些想法。
架构设计
这篇文章的目的是阐述haipproxy的主要架构和流程。该项目模块是
基于Scrapy和Redis的分布式 络爬虫,用作IP爬取和校验,对应于项目的crawler
基于Redis实现的分布式任务调度工具,对应于项目的scheduler和redis_util.py
Crawler分为代理爬取和校验,两者实现思想类似,主要使用Scrapy的spider_idle信 和DontCloseSpider异常来阻止Scrapy在没有数据的时候关闭,灵感来自scrapy-redis(https://github.com/rmax/scrapy-redis)。
启动调度器,包括代理 络爬虫调度器和校验 络爬虫调度器。调度器会读取rules.py中待爬取的 站,将其编排成任务存入各个任务队列中
代理IP采集 络爬虫启动后会到对应的任务队列中获取任务并执行,再把获取到的结果存入一个init队列中
init队列由一个特殊的校验器HttpbinInitValidator进行消费,它会过滤掉透明代理,再把可用代理输入各个Validated队列中
调度器会定时从Validated队列中获取代理IP,再将其存入一个临时的队列。这里用一个临时队列是为了让校验更加公平,如果直接从Validated队列中获取资源进行校验,那么会增大不公平性
这时候各个校验器(非init校验器)会从对应的临时队列中获取待校验的IP并对其进行校验,此处省略校验细节
校验完成后再将其放回到Validated队列中,等待下一轮校验
请求成功率(体现为分数)、响应速度和最近校验时间满足settings.py所配置要求的代理IP将会被 络爬虫客户端所消费
为了屏蔽各个调用语言的差异性,目前实现的客户端是squid客户端,它还可以作为 络爬虫客户端的中间件
到此,整个流程便完了。
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!