时间:2021-05-22
高性能异步爬虫
目的:在爬虫中使用异步实现高性能的数据爬取操作
异步爬虫的方式:
- 多线程、多进程(不建议):
好处:可以为相关阻塞的操作单独开启多线程或进程,阻塞操作就可以异步执行;
弊端:无法无限制的开启多线程或多进程。
- 线程池、进程池(适当的使用):
好处:我们可以降低系统对进程或线程创建和销毁的一个频率,从而很好的降低系统的开销;
弊端:池中线程或进程的数据是有上限的。
代码如下
# _*_ coding:utf-8 _*_"""@FileName :6.4k图片解析爬取(异步高性能测试).py@CreateTime :2020/8/14 0014 10:01@Author : Lurker Zhang@E-mail : 289735192@qq.com@Desc. :"""import requestsfrom lxml import etreefrom setting.config import *import jsonimport osimport timefrom multiprocessing.dummy import Pooldef main(): # 图片采集源地址 # source_url = 'http://pic.netbian.com/4kmeinv/' # temp_url = 'http://pic.netbian.com/4kmeinv/index_{}.html' # source_url = 'http://pic.netbian.com/4kdongman/' # temp_url = 'http://pic.netbian.com/4kdongman/index_{}.html' source_url = 'http://pic.netbian.com/4kmingxing/' temp_url = 'http://pic.netbian.com/4kmingxing/index_{}.html' # 本此采集前多少页,大于1的整数 page_sum = 136 all_pic_list_url = [] if page_sum == 1: pic_list_url = source_url print('开始下载:' + pic_list_url) all_pic_list_url.append(pic_list_url) else: # 先采集第一页 pic_list_url = source_url # 调用采集单页图片链接的函数 all_pic_list_url.append(pic_list_url) # 再采集第二页开始后面的页数 for page_num in range(2, page_sum + 1): pic_list_url = temp_url.format(page_num) all_pic_list_url.append(pic_list_url) # 单页图片多线程解析 pool1 = Pool(10) pool1.map(down_pic, all_pic_list_url) print('采集完成,本地成功下载{0}张图片,失败{1}张图片。'.format(total_success, total_fail)) # 存储已下载文件名列表: with open("../depository/mingxing/pic_name_list.json", 'w', encoding='utf-8') as fp: json.dump(pic_name_list, fp)def down_pic(pic_list_url): print("准备解析图片列表页:",pic_list_url) # 获取图片列表页的网页数据 pic_list_page_text = requests.get(url=pic_list_url, headers=headers).text tree_1 = etree.HTML(pic_list_page_text) # 获取图片地址列表 pic_show_url_list = tree_1.xpath('//div[@class="slist"]/ul//a/@href') pic_url_list = [get_pic_url('http://pic.netbian.com' + pic_show_url) for pic_show_url in pic_show_url_list] # 开始下载并保存图片(多线程) pool2 = Pool(5) pool2.map(save_pic, pic_url_list)def save_pic(pic_url): print("准备下载图片:",pic_url) global total_success, total_fail, pic_name_list,path picname = get_pic_name(pic_url) if not picname in pic_name_list: # 获取日期作为保存位置文件夹 pic = requests.get(url=pic_url, headers=headers).content try: with open(path + picname, 'wb') as fp: fp.write(pic) except IOError: print(picname + "保存失败") total_fail += 1 else: pic_name_list.append(picname) total_success += 1 print("成功保存图片:{0},共成功采集{1}张。".format(picname, total_success)) else: print("跳过,已下载过图片:" + picname) total_fail += 1def get_pic_name(pic_url): return pic_url.split('/')[-1]def get_pic_url(pic_show_url): tree = etree.HTML(requests.get(url=pic_show_url, headers=headers).text) return 'http://pic.netbian.com/' + tree.xpath('//div[@class="photo-pic"]/a/img/@src')[0]if __name__ == '__main__': # 读入已采集图片的名称库,名称存在重复的表示已经采集过将跳过不采集 if not os.path.exists('../depository/mingxing/pic_name_list.json'): with open("../depository/mingxing/pic_name_list.json", 'w', encoding="utf-8") as fp: json.dump([], fp) with open("../depository/mingxing/pic_name_list.json", "r", encoding="utf-8") as fp: pic_name_list = json.load(fp) path = '../depository/mingxing/' + time.strftime('%Y%m%d', time.localtime()) + '/' if not os.path.exists(path): os.mkdir(path) # 记录本次采集图片的数量 total_success = 0 total_fail = 0 main()以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例讲述了python实现ip代理池功能。分享给大家供大家参考,具体如下:爬取的代理源为西刺代理。用xpath解析页面用telnet来验证ip是否可用把有效
本文实例讲述了python实现爬取百度图片的方法。分享给大家供大家参考,具体如下:importjsonimportitertoolsimporturllibim
本文我们来看一下如何使用Python将QQ好友头像拼成“五一快乐”四个字。我们可以将整个实现过程分为两步:爬取QQ好友头像、利用好友头像生成文字。爬取头像爬取Q
Python是很好的爬虫工具不用再说了,它可以满足我们爬取网络内容的需求,那最简单的爬取网络上的图片,可以通过很简单的方法实现。只需导入正则表达式模块,并利用s
本文实例讲述了Python实现爬虫爬取NBA数据功能。分享给大家供大家参考,具体如下:爬取的网站为:stat-nba.com,这里爬取的是NBA2016-201