如何成为一个合格的代理池

其实,在github上我们可以找到好多代理池,说白了都不知道是第几手数据了,都是爬取多个网站然后进行数据清洗,或redis或存库或flask实现http的api,但是,笔者需求很单纯,每日几百个稳定代理即可,然而即使榜首的7Kstar也未能满足笔者的需求,算咯,自己来吧。

经常写爬虫用代理池的小伙伴应该也清楚免费代理的质量之低,首先推荐个大佬的代理服务,而本次的代理池也基于它去完成的。

那么开始我们今天的主题,如何成为一个合格的代理池!

代理存活检测模块

def alive(url): proxy = {http: url.replace(https, http), https: url.replace(http, https) } try: print("当前检测代理:{}".format(url)) r = requests.get(=proxy,headers=headers,timeout=3) if r.status_code==200: return 200 except: pass

我们可以借助常见的网站去尝试代理访问来判断代理是否存活,但有些代理可以访问百度但不一定可以访问你的目标站点,所以可以根据自己的需求变更存活检测规则。

数据获取与处理模块

数据获取模块采用了我们刚刚推荐的站点,而且它的机制是每隔10s会刷新一边数据,棒呆!我们根据这个特性每隔十秒获取一次数据。

def getinfo(): try: response1 = requests.get(url1, headers=headers) response2 = requests.get(url2, headers=headers) response3 = requests.get(url3, headers=headers) r=(response1.text+response2.text+response3.text).replace(\n,).replace(\t,).replace( ,) res = re.findall(<buttonclass="btnbtn-smbtn-copy"data-url="(.*?)", r) return res except: print(网络不稳定,摸鱼ing......)

数据存储模块会对返回结果进行存活判断,然后将有用数据丢到了一个临时文件,为什么要加这一层过渡呢?当然是让它承担日志功能与去重前备份。

def saveinfo(i,q): if alive(i): print(获得有效代理:{}.format(i)) fa=open(proxiestmp.txt,a) fa.write(i+\n) fa.close() else: pass q.put(i)

数据梳理模块我们根据刚刚的临时文件进行set处理去重。

def setinfo(): fw=open(proxies.txt,w) fw.writelines(set(open(proxiestmp.txt,r).readlines())) fw.close()

最后当然是一个多进程并发的调度,为什么要加入多进程?不是会sleep10s等待么?我们需要考虑到一次拿到数据后存活判断的耗时,如果这10s内没有完成存活检测(因为代理的质量原因网络延时是一定存在的)就会对下次请求造成延误,所以我们的多进程并发就是针对的代理存活检测模块,保证每10s一个单位时间内如期完成任务。

#进程池管理模块 def poolmana(res): p = Pool(30) q = Manager().Queue() for i in res: p.apply_async(saveinfo, args=(i,q,)) p.close() p.join()

数据清洗模块

为什么要数据清理,因为一段时间不用,代理极有可能死掉了,那就重新再检测一遍存活咯。

def wash(i,q): if alive(i): fw = open(proxies.txt, a) fw.write(i + \n) fw.close() q.put(i)

这种东西,谁愿意等呢,多进程安排~

#进程池管理模块 def poolmana(res): p = Pool(10) q = Manager().Queue() print(代理池数据清洗开始......\n耗时取决于当前代理池大小......\n请耐心等待......) for i in res: i=i.replace(\n,) p.apply_async(wash, args=(i,q,)) p.close() p.join()

考虑到某些不可描述的以为,在数据清洗前会帮你们做个备份啦,另外还会重新从临时文件去重一次,防止遗漏。

def run(): setinfo() fr=open(proxies.txt,r+) res=fr.readlines() fr.truncate() fr.close() fc=open(proxiesback.txt,w) fc.writelines(res) fc.close() poolmana(res) print(代理池清洗完毕......)

API接口

哼哼,希望大家想起它的时候,会认为我做的是轮子而不是成品,所以额外开发了个接口供其它平台调度,将会返回一个极高质量的代理列表。

def run(): fr=open(proxies.txt, r) read=fr.readlines() fr.close() res=[] for i in read: r=i.replace(\n,) res.append(r) return res

运行展示

是的,默认采集600次,大家根据自己的需求调整就是。

_____ _____ / ___| ___| |_|_ \ _ __ ______(_) ______ | |_ / _ \ __| | |_) | __/ _ \ \/ / |/ _ \/ __| | |_| |__/ |_|__/| | | (_) ><| |__/\__ \ \____|\___|\__| |_| |_|\___/_/\_\_|\___||___/ By Tide_RabbitMask | V 1.0 代理池拓展开始...... 预计等待时间100分钟...... 预计采集有效去重代理数量600-+...... 当前第1次采集 当前检测代理::80

跑出的结果以日志形式存放在tmp文件,然后去重后存入proxies.txt。

然后,使用刚刚的api模块调用即可,这毕竟是个轮子,如果你想的话,花五分钟丢flask做个http接口亦可,而我这里的需求是用来给爬虫平台做调度的,所以如此设计。

GetProxies项目地址:

那么,玩的开心。