作者 | 苏克1900
高可用代理ip本文转载自 | 第2大脑
本文中使用 Scrapy 爬取了豌豆荚全网 70,000+ App ,并进行探索性分析。
写在前面:若对数据抓取部分不感兴趣,可以直接下拉到数据分析部分。
目录
1 分析背景
之前我们使用了 Scrapy 爬取并分析了酷安网 6000+ App,为什么这篇文章又在讲抓 App 呢?
因为我喜欢折腾 App,哈哈。当然,主要是因为下面这几点:
第一、之前抓取的网页很简单
在抓取酷安网时,我们使用 for 循环,遍历了几百页就完成了所有内容的抓取,非常简单,但现实往往不会这么 easy,有时我们要抓的内容会比较庞大,比如抓取整个网站的数据,为了增强爬虫技能,高可用代理ip所以本文选择了「豌豆荚」这个网站。
目标是: 爬取该网站所有分类下的 App 信息并下载 App 图标,数量在 70,000 左右,比酷安升了一个数量级。
第二、再次练习使用强大的 Scrapy 框架
之前只是初步地使用了 Scrapy 进行抓取,还没有充分领会到 Scrapy 有多么牛逼,所以本文尝试深入使用 Scrapy,增加随机 UserAgent、代理 IP 和图片下载等设置。
第三、对比一下酷安和豌豆荚两个网站
相信很多人都在使用豌豆荚下载 App,我则使用酷安较多,所以也想比较一下这两个网站有什么异同点。
话不多说,下面开始抓取流程。
▌分析目标
首先,我们来了解一下要高可用代理ip抓取的目标网页是什么样的。
可以看到该网站上的 App 分成了很多类,包括:「应用播放」、「系统工具」等,一共有 14 个大类别,每个大类下又细分了多个小类,例如,影音播放下包括:「视频」、「直播」等。
点击「视频」进入第二级子类页面,可以看到每款 App 的部分信息,包括:图标、名称、安装数量、体积、评论等。
在之前的一篇文章中(见下方链接),我们分析了这个页面:采用 AJAX 加载,GET 请求,参数很容易构造,但是具体页数不确定,最后分别使用了 For 和 While 循环抓取了所有页数的数据。
∞ Python For 和 While 循环爬取不确定页数的网页
接着,我们可以再进入第三级页面,高可用代理ip也就是每款 App 的详情页,可以看到多了下载数、好评率、评论数这几样参数,抓取思路和第二级页面大同小异,同时为了减小网站压力,所以 App 详情页就不抓取了。
所以,这是一个分类多级页面的抓取问题,依次抓取每一个大类下的全部子类数据。
学会了这种抓取思路,很多网站我们都可以去抓,比如很多人爱爬的「豆瓣电影」也是这样的结构。
▌分析内容
数据抓取完成后,本文主要是对分类型数据的进行简单的探索性分析,包括这么几个方面:
下载量最多 / 最少的 App 总排名
下载量最多 / 最少的 App 分类 / 高可用代理ip子分类排名
App 下载量区间分布
App 名称重名的有多少
和酷安 App 进行对比
▌分析工具
Python
Scrapy
MongoDB
Pyecharts
Matplotlib
2 数据抓取
▌网站分析
我们刚才已经初步对网站进行了分析,大致思路可以分为两步,首先是提取所有子类的 URL 链接,然后分别抓取每个 URL 下的 App 信息就行了。
可以看到,子类的 URL 是由两个数字构成,前面的数字表示分类编号,后面的数字表示子分类编号,得到了这两个编号,就可以抓取该分类下的所有 App 信息,那么怎么获取这两个数值代码呢?
回到分类页面,定位查看信息,可以看到分类信息都包裹在每个 li 节点中,子分类 URL 则高可用代理ip又在子节点 a 的 href 属性中,大分类一共有 14 个,子分类一共有 88 个。
到这儿,思路就很清晰了,我们可以用 CSS 提取出全部子分类的 URL,然后分别抓取所需信息即可。
另外还需注意一点,该网站的 首页信息是静态加载的,从第 2 页开始是采用了 Ajax 动态加载,URL 不同,需要分别进行解析提取。
▌Scrapy抓取
我们要爬取两部分内容,一是 APP 的数据信息,包括前面所说的:名称、安装数量、体积、评论等,二是下载每款 App 的图标,分文件夹进行存放。
由于该网站有一定的反爬措施,所以我们需要添加随机 UA 和代理 IP,关于这两个知识点,我此前单独写高可用代理ip了两篇文章进行铺垫,传送门:
∞ Scrapy 中设置随机 User-Agent 的方法汇总
∞ Python 爬虫的代理 IP 设置方法汇总
这里随机 UA 使用 scrapy-fake-useragent 库,一行代码就能搞定,代理 IP 直接上阿布云付费代理,几块钱搞定简单省事。
下面,就直接上代码了。
items.py 1import scrapy 2 3class WandoujiaItem(scrapy.Item): 4 cate_name = scrapy.Field() #分类名 5 child_cate_name = scrapy.Field() #分类编号 6 app_name = scrapy.Field() # 子分类名 7 install = scrapy.Field() # 子分类编号 8 volume = scrapy.Field() # 体积 9 comment = scrapy.Field() # 评论10 icon_url = scrapy.Field() # 图标urlmiddles.py中间件主要用于设置代理 IP。
1import base64 2proxyServer = ":9020" 3proxyUser = "你的信息" 4proxyPass = "你的信息" 5 6proxyAuth = "Basic " + base64.urlsafe_b64encode(bytes((proxyUser + ":" + proxyPass), "ascii")).decode("utf8") 7class AbuyunProxyMiddleware(object): 8 def process_request(self, request, spider): 9 request.meta["proxy"] = proxyServer10 request.headers["Proxy-Authorization"] = proxyAuth11 logging.debug(Using Proxy:%s%proxyServer)pipelines.py该文件用于存储数据到 MongoDB 和下载图标到分类文件夹中。
存储到 MongoDB:
1MongoDB 存储 2class MongoPipeline(object): 3 def __init__(self,mongo_url,mongo_db): 4 self.mongo_url = mongo_url 5 self.mongo_db = mongo_db 6 7 @classmethod 8 def from_crawler(cls,crawler): 9 return cls(10 mongo_url = crawler.settings.get(MONGO_URL),11 mongo_db = crawler.settings.get(MONGO_DB)12 )1314 def open_spider(self,spider):15 self.client = pymongo.MongoClient(self.mongo_url)16 self.db = self.client[self.mongo_db]1718 def process_item(self,item,spider):19 name = item.__class__.__name__20 # self.db[name].insert(dict(item))21 self.db[name].update_one(item, {$set: item}, upsert=True)22 return item2324 def close_spider(self,spider):25 self.client.close()按文件夹下载图标:
1# 分文件夹下载 2class ImagedownloadPipeline(ImagesPipeline): 3 def get_media_requests(self,item,info): 4 if item[icon_url]: 5 yield scrapy.Request(item[icon_url],meta={item:item}) 6 7 def file_path(self, request, response=None, info=None): 8 name = request.meta[item][app_name] 9 cate_name = request.meta[item][cate_name]10 child_cate_name = request.meta[item][child_cate_name]1112 path1 = r/wandoujia/%s/%s %(cate_name,child_cate_name)13 path = r{}\{}.{}.format(path1, name, jpg)14 return path1516 def item_completed(self,results,item,info):17 image_path = [x[path] for ok,x in results if ok]18 if not image_path:19 raise DropItem(Item contains no images)20 return itemsettings.py 1BOT_NAME = wandoujia 2SPIDER_MODULES = [wandoujia.spiders] 3NEWSPIDER_MODULE = wandoujia.spiders 4 5MONGO_URL = localhost 6MONGO_DB = wandoujia 7 8# 是否遵循机器人规则 9ROBOTSTXT_OBEY = False10# 下载设置延迟 由于买的阿布云一秒只能请求5次,所以每个请求设置了 0.2s延迟11DOWNLOAD_DELAY = 0.21213DOWNLOADER_MIDDLEWARES = {14 scrapy.downloadermiddlewares.useragent.UserAgentMiddleware: None,15 scrapy_fake_useragent.middleware.RandomUserAgentMiddleware: 100, # 随机UA16 wandoujia.middlewares.AbuyunProxyMiddleware: 200 # 高可用代理ip阿布云代理17 )1819ITEM_PIPELINES = {20 wandoujia.pipelines.MongoPipeline: 300,21 wandoujia.pipelines.ImagedownloadPipeline: 400,22}2324# URL不去重25DUPEFILTER_CLASS = scrapy.dupefilters.BaseDupeFilterwandou.py主程序这里列出关键的部分:
1def __init__(self): 2 self.cate_url = 3 # 子分类首页url 4 self.url = 5 # 子分类 ajax请求页url 6 self.ajax_url = ? 7 # 实例化分类标签 8 self.wandou_category = Get_category() 9def start_requests(self):10 yield scrapy.Request(self.cate_url,callback=self.get_category)1112def get_category(self,response): 13 cate_content = self.wandou_category.parse_category(response)14 # ...这里,首先定义几个 URL,包括:分类页面、子分类首页、子分类 AJAX 页,也就是第 2 页开始的 URL,然后又定义了一个类 Get_category() 专门用于提取全部的子分类 URL,稍后我们将展开该类的代码。
程序从 start_requests 开始运行,解析首页获得响应,调用 get_category() 方法,然后使用 Get_category() 类中的 parse_category() 方法提取出所有 URL,具体代码如下:
1class Get_category(): 2 def parse_category(self, response): 3 category = response.css(.parent-cate) 4 data = [{ 5 cate_name: item.css(.cate-link::text).extract_first(), 6 cate_code: self.get_category_code(item), 7 child_cate_codes: self.get_child_category(item), 8 } for item in category] 9 return data1011 # 获取所有主分类标签数值代码12 def get_category_code(self, item):13 cate_url = item.css(.cate-link::attr("href")).extract_first()14 pattern = re.compile(r.*/(\d+)) # 提取主类标签代码15 cate_code = re.search(pattern, cate_url)16 return cate_code.group(1)1718 # 获取所有子分类名称和编码19 def get_child_category(self, item):20 child_cate = item.css(.child-cate a)21 child_cate_url = [{22 child_cate_name: child.css(::text).extract_first(),23 child_cate_code: self.get_child_category_code(child)24 } for child in child_cate]25 return child_cate_url2627 # 正则提取子分类编码28 def get_child_category_code(self, child):29 child_cate_url = child.css(::attr("href")).extract_first()30 pattern = re.compile(r.*_(\d+)) # 提取小类标签编号31 child_cate_code = re.search(pattern, child_cate_url)32 return child_cate_code.group(1)这里,除了分类名称 cate_name 高可用代理ip可以很方便地直接提取出来,分类编码和子分类的子分类的名称和编码,我们使用了 get_category_code() 等三个方法进行提取。提取方法使用了 CSS 和正则表达式,比较简单。
最终提取的分类名称和编码结果如下,利用这些编码,我们就可以构造 URL 请求开始提取每个子分类下的 App 信息了。
1{cate_name: 影音播放, cate_code: 5029, child_cate_codes: [ 2 {child_cate_name: 视频, child_cate_code: 716}, 3 {child_cate_name: 直播, child_cate_code: 1006}, 4 ... 5 ]}, 6{cate_name: 系统工具, cate_code: 5018, child_cate_codes: [ 7 {child_cate_name: WiFi, child_cate_code: 895}, 8 {child_cate_name: 浏览器, child_cate_code: 599}, 9 ...10 ]}, 11...接着前面的 get_category() 继续往下写,提取 App 的信息:
1def get_category(self,response): 2 cate_content = self.wandou_category.parse_category(response) 3 # ... 4 for item in cate_content: 5 child_cate = item[child_cate_codes] 6 for cate in child_cate: 7 cate_code = item[cate_code] 8 cate_name = item[cate_name] 9 child_cate_code = cate[child_cate_code]10 child_cate_name = cate[child_cate_name]1112 page = 1 # 设置爬取起始页数13 if page == 1:14 # 构造首页url15 category_url = {}{}_{} .format(self.url, cate_code, child_cate_code)16 else:17 params = {18 catId: cate_code, # 类别19 subCatId: child_cate_code, # 子类别20 page: page,21 }22 category_url = self.ajax_url + urlencode(params)23 dict = {page:page,cate_name:cate_name,cate_code:cate_code,child_cate_name:child_cate_name,child_cate_code:child_cate_code}24 yield scrapy.Request(category_url,callback=self.parse,meta=dict)这里,依次提取出全部的分类名称和编码,用于构造请求的 URL。
由于首页的 URL 和第 2 页开始的 URL 形式不同,所以使用了 if 语句高可用代理ip分别进行构造。接下来,请求该 URL 然后调用 self.parse() 方法进行解析,这里使用了 meta 参数用于传递相关参数。
1def parse(self, response): 2 if len(response.body) >= 100: # 判断该页是否爬完,数值定为100是因为无内容时长度是87 3 page = response.meta[page] 4 cate_name = response.meta[cate_name] 5 cate_code = response.meta[cate_code] 6 child_cate_name = response.meta[child_cate_name] 7 child_cate_code = response.meta[child_cate_code] 8 9 if page == 1:10 contents = response11 else:12 jsonresponse = json.loads(response.body_as_unicode())13 contents = jsonresponse[data][content]14 # response 是json,json内容是html,html 为文本不能直接使用.css 提取,要先转换15 contents = scrapy.Selector(text=contents, type="html")1617 contents = contents.css(.card)18 for content in contents:19 # num += 120 item = WandoujiaItem()21 item[cate_name] = cate_name22 item[child_cate_name] = child_cate_name23 item[app_name] = self.clean_name(content.css(.name::text).extract_first()) 24 item[install] = content.css(.install-count::text).extract_first()25 item[volume] = content.css(.meta span:last-child::text).extract_first()26 item[comment] = content.css(.comment::text).extract_first().strip()27 item[icon_url] = self.get_icon_url(content.css(.icon-wrap a img),page)28 yield item2930 # 递归爬下一页31 page += 132 params = {33 catId: cate_code, # 大类别34 subCatId: child_cate_code, # 小类别35 page: page,36 }37 ajax_url = self.ajax_url + urlencode(params)38 dict = {page:page,cate_name:cate_name,cate_code:cate_code,child_cate_name:child_cate_name,child_cate_code:child_cate_code}39 yield scrapy.Request(ajax_url,callback=self.parse,meta=dict)最后,parse() 方法用来解析提取最终我们需要的 App 名称、安装量等信息,解析完成一页后,page 进行递增,然后重复调用 parse() 方法循环解析,直到解析完全部分类的最后一页。
最终,几个小时后,我们就可以完成全部 App 信息的抓取,我这里得到 73,755 条信息和 72,150 个图标,两个数值不一样是因为有些 App 只有信高可用代理ip息没有图标。
图标下载:
下面将对提取的信息,进行简单的探索性分析。
3 数据分析
▌总体情况
首先来看一下 App 的安装量情况,毕竟 70000 多款 App,自然很感兴趣哪些 App 使用地最多,哪些又使用地最少。
代码实现如下:
1plt.style.use(ggplot) 2colors = #6D6D6D #字体颜色 3colorline = #63AB47 #红色CC2824 #豌豆荚绿 4fontsize_title = 20 5fontsize_text = 10 6 7# 下载量总排名 8def analysis_maxmin(data): 9 data_max = (data[:10]).sort_values(by=install_count)10 data_max[install_count] = (data_max[install_count] / ).round(1)11 data_max.plot.barh(x=app_name,y=install_count,color=colorline)12 for y, x in enumerate(list((data_max[install_count]))):13 plt.text(x + 0.1, y - 0.08, %s %14 round(x, 1), ha=center, color=colors)1516 plt.title(安装量最多的 10 款 App ?,color=colors)17 plt.xlabel(下载量(亿次))18 plt.ylabel(App)19 plt.tight_layout()20 # plt.savefig(安装量最多的App.png,dpi=200)21 plt.show()看了上图,有两个「没想到」:
排名第一的居然是一款手机管理软件
对豌豆荚网上的这个第一名感到意外,一是、好奇大家都那么爱手机清理或者怕中毒么?毕竟,我自己的手机都「裸奔」了好些年;二是、第一名居然不是鹅高可用代理ip厂的其他产品,比如:或者。
榜单放眼望去,以为会出现的没有出现,没有想到的却出现了
前十名中,居然出现了书旗小说、印客这些比较少听过的名字,而国民 App 、支付宝等甚至都没有出现在这个榜单中。
带着疑问和好奇,分别找到了「腾讯手机管家」和「」两款 App 的主页:
腾讯手机管家下载和安装量:
下载和安装量:
这是什么情况???
腾讯管家 3 亿多的下载量等同于安装量,而 20 多亿的下载量,只有区区一千多万的安装量,两组数据对比,大致反映了两个问题:
要么是腾讯管家的下载量实际并没有那么多
要么是高可用代理ip的下载量写少了
不管是哪个问题,都反映了一个问题:该网站做得不够走心啊。
为了证明这个观点,将前十名的安装量和下载量都作了对比,发现很多 App 的安装量和下载量是一样的,也就是说:这些 App 的实际安装量并没有那么多,而如果这样的话,那么这份榜单就有很大水分了。
难道,辛辛苦苦爬了那么久,就得到这样的结果?
不死心,接着再看看安装量最少的 App 是什么情况,这里找出了其中最少的 10 款:
扫了一眼,更加没想到了:
「 音乐」竟然是倒数第一,只有 3 次安装量!
这和刚刚上市、市值千亿的音乐是同一款产品?
高可用代理ip再次核实了一下:
没有看错,是写着 3人安装!
这是已经不走心到什么程度了?这个安装量,鹅厂还能「用心做好音乐」?
说实话,到这儿已经不想再往下分析下去了,担心爬扒出更多没想到的东西,不过辛苦爬了这么久,还是再往下看看吧。
看了首尾,我们再看看整体,了解一下全部 App 的安装数量分布,这里去除了有很大水分的前十名 App。
很惊讶地发现,竟然有 多达 67,195 款,占总数的 94% 的 App 的安装量不足 1万!
如果这个网站的所有数据都是真的话,那么上面排名第一的手机管家,它一款就差不多抵得上这 6 万多款 App 的安装量!
对于多数 App 开发者,只能说:高可用代理ip现实很残酷,辛辛苦苦开发出来的 App,用户不超过 1万人的可能性高达近 95%。
代码实现如下:
1def analysis_distribution(data): 2 data = data.loc[10:,:] 3 data[install_count] = data[install_count].apply(lambda x:x/10000) 4 bins = [0,1,10,100,1000,10000] 5 group_names = [1万以下,1-10万,10-100万,100-1000万,1000万-1亿] 6 cats = pd.cut(data[install_count],bins,labels=group_names) 7 cats = pd.value_counts(cats) 8 bar = Bar(App 下载数量分布,高达 94% 的 App 下载量低于1万) 9 bar.use_theme(macarons)10 bar.add(11 App 数量,12 list(cats.index),13 list(cats.values),14 is_label_show = True,15 xaxis_interval = 0,16 is_splitline_show = 0,17 )18 bar.render(path=App下载数量分布.png,pixel_ration=1)▌分类情况
下面,我们来看看各分类下的 App 情况,不再看安装量,而看数量,以排出干扰。
可以看到 14 个大分类中,每个分类的 App 数量差距都不大,数量最多的「生活休闲」是「摄影图像」的两倍多一点。
接着,我们进一步看看 88 个子分类的 App 数量情况,筛选出数量最多和最少的 10 个子类:
可以发现两点有意思的现象:
「收音机」类别 App 数量最多,达到 1,300 多款
高可用代理ip这个很意外,当下收音机完全可以说是个老古董了,居然还有那么人去开发。
App 子类数量差距较大
最多的「收音机」是最少的「动态壁纸」近 20 倍,如果我是一个 App 开发者,那我更愿意去尝试开发些小众类的 App,竞争小一点,比如:「背单词」、「小儿百科」这些。
看完了总体和分类情况,突然想到一个问题:这么多 App,有没有重名的呢?
惊奇地发现,叫「一键锁屏」的 App 多达 40 款,这个功能 App 很难再想出别的名字了么? 现在很多手机都支持触控锁屏了,比一键锁屏操作更加方便。
接下来,我们简单对比下豌高可用代理ip豆荚和酷安两个网站的 App 情况。
▌对比酷安
二者最直观的一个区别是在 App 数量上,豌豆荚拥有绝对的优势,达到了酷安的十倍之多,那么我们自然感兴趣:
豌豆荚是否包括了酷安上所有的 App ?
如果是,「你有的我都有,你没有的我也有」,那么酷安就没什么优势了。统计之后,发现豌豆荚 仅包括了 3,018 款,也就是一半左右,剩下的另一半则没有包括。
这里面固然存在两个平台上 App 名称不一致的现象,但更有理由相信 酷安很多小众的精品 App 是独有的,豌豆荚里并没有。
代码实现如下:
1include = data3.shape[0] 2notinclude = data2.shape[0] - data3.shape[0] 3sizes= [include,notinclude] 4labels = [u包含,u不包含] 5explode = [0,0.05] 6plt.pie( 7 sizes, 8 autopct = %.1f%%, 9 labels = labels,10 colors = [colorline,#7FC161], # 豌豆荚绿11 shadow = False,12 startangle = 90,13 explode = explode,14 textprops = {fontsize:14,color:colors}15)16plt.title(豌豆荚仅包高可用代理ip括酷安上一半的 App 数量,color=colorline,fontsize=16)17plt.axis(equal)18plt.axis(off)19plt.tight_layout()20plt.savefig(包含不保包含对比.png,dpi=200)21plt.show()接下来,我们看看所包含的 App 当中,在两个平台上的下载量是怎么样的:
可以看到,两个平台上 App 下载数量差距还是很明显。
最后,我面再看看豌豆荚上没有包括哪些APP:
发现很多神器都没有包括,比如:RE、绿色守护、一个木函等等。豌豆荚和酷安的对比就到这里,如果用一句话来总结,我可能会说:
豌豆荚太强大了, App 数量是酷安的十倍,所以我选酷安。
以上,就是利用 Scrapy 爬取分类多级页面并进行分析的一次实战。
CDA 课程咨询丨赵老师
联系电话:扫描二维码更多精彩文章
做数据分析,Python和R究竟哪个更强?
解读 | 数据科学领域常见的3种职业转型方向
求职 | 一份理想的数据科学家简历中要包括哪些技能?
机器学习太难?一文带你掌握机器学习的必备基础知识
手把手教你用Python分析电影 | 以《蚁人2》为例
Python能用来做什么?以下是Python的三大主要用途