Spider爬虫实例
1. Ajax_weibo
输入要爬取的博主ID,获取ajax请求,解析json数据,爬取博主所有微博,保存至MySQL
2. zhihuCrawl
知乎模拟登录,验证码图片保存,输入识别的验证码,获取当日热门话题及其高赞回答,保存问题标题、链接,回答者的ID,内容及点赞数量,存储至MongoDB
3. 爬虫
使用西刺代理构建代理ip池,检查代理ip连通性,使用可用的ip爬取搜狗文章,将文章保存为doc文档
4. 豆瓣读书爬虫
读取豆瓣每个分类的书籍列表,获取每本书信息,存储到MySQL,爬取完毕后删除重复数据并重新排序
5. csdn_scrapy
爬取csdn所有子标签文章,清洗后保存到MongoDB ,使用scrapy.redis组件进行分布式部署
6. bilibili
使用scrapy-splash爬取b站子标签热门video排行的大量信息,按标签建表保存至MongoDB
7. toutiao
爬取今日头条子标签新闻,webdriver获取加密参数,ajax请求返回json数据解析,保存至MongoDB
8. taobao
爬取淘宝各子标签,按销量排名商品信息,按分类保存至MongoDB,通过数据分析,将商品在各省分布、销量排行、地图分布等通过matplotlib绘图显示
9. zhihu_app
爬取使用ssl-pinning技术的app,fiddler抓包获取api请求,模拟手机端请求数据,解析json存入mysql
scrapyd
docker scrapyd 配置文件
下载地址: