时间:2021-05-22
本人想搞个采集微信文章的网站,无奈实在从微信本生无法找到入口链接,网上翻看了大量的资料,发现大家的做法总体来说大同小异,都是以搜狗为入口。下文是笔者整理的一份python爬取微信文章的代码,有兴趣的欢迎阅读
#coding:utf-8author = 'haoning'**#!/usr/bin/env pythonimport timeimport datetimeimport requests**import jsonimport sysreload(sys)sys.setdefaultencoding( "utf-8" )import reimport xml.etree.ElementTree as ETimport os#OPENID = 'oIWsFtyel13ZMva1qltQ3pfejlwU'OPENID = 'oIWsFtw_-W2DaHwRz1oGWzL-wF9M&ext'XML_LIST = []# get current time in millisecondscurrent_milli_time = lambda: int(round(time.time() * 1000))def get_json(pageIndex):global OPENIDthe_headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36','Referer': 'http://weixin.sogou.com/gzh?openid={0}'.format(OPENID),'Host': 'weixin.sogou.com'}url = 'http://weixin.sogou.com/gzhjs?cb=sogou.weixin.gzhcb&openid={0}&page={1}&t={2}'.format(OPENID, pageIndex, current_milli_time()) #urlprint(url)response = requests.get(url, headers = the_headers)# TO-DO; check if match the regresponse_text = response.textprint response_textjson_start = response_text.index('sogou.weixin.gzhcb(') + 19json_end = response_text.index(')') - 2json_str = response_text[json_start : json_end] #get json#print(json_str)# convert json_str to json objectjson_obj = json.loads(json_str) #get json obj# print json_obj['totalPages']return json_objdef add_xml(jsonObj):global XML_LISTxmls = jsonObj['items'] #get item#print type(xmls)XML_LIST.extend(xmls) #用新列表扩展原来的列表**[#][2]**# ------------ Main ----------------print 'play it :) '# get total pagesdefault_json_obj = get_json(1)total_pages = 0total_items = 0if(default_json_obj):# add the default xmlsadd_xml(default_json_obj)# get the rest itemstotal_pages = default_json_obj['totalPages']total_items = default_json_obj['totalItems']print total_pages# iterate all pagesif(total_pages >= 2): for pageIndex in range(2, total_pages + 1): add_xml(get_json(pageIndex)) #extend print 'load page ' + str(pageIndex) print len(XML_LIST)声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
python爬虫是程序员们一定会掌握的知识,练习python爬虫时,很多人会选择爬取微博练手。python爬虫微博根据微博存在于不同媒介上,所爬取的难度有差异,
本文实例讲述了Python爬取个人微信朋友信息操作。分享给大家供大家参考,具体如下:利用Python的itchat包爬取个人微信号的朋友信息,并将信息保存在本地
本文实例为大家分享了python爬取微信公众号文章的具体代码,供大家参考,具体内容如下#-*-coding:utf-8-*-importrequestsfrom
前言之前的一篇文章已经讲过怎样获取链接,怎样获得参数了,详情请看python爬取京东商城普通篇,本文将详细介绍利用python爬虫框架scrapy如何爬取京东商
微信文章怎么刷阅读量?2017微信文章刷量神器是什么?微信公众号文章的阅读量至关重要,所以很多朋友相想知道微信文章怎么刷阅读量?2017微信文章刷量神器是什