时间:2021-05-22
如下所示:
1.pip install requests
2.pip install lxml
3.pip install xlsxwriter
import requests #想要爬必须引from lxml import html #这个是用于页面爬取import xlsxwriter#操作Excel表格库 workbook = xlsxwriter.Workbook('E:/test/test.xlsx')# 新建的Excel表格文档路径worksheet = workbook.add_worksheet() # 建立sheet, 可以work.add_worksheet('employee')来指定sheet名,但中文名会报UnicodeDecodeErro的错误i = 1;# 作用于Excel表格第几行数与接口第几页#写一个死循环让他一直爬取数据while (True): import json# 这里这么引入json是因为不这么引入当循环到第二次就会报没有引入json的错,所以循环引入了 #接口str(i)表示第几页一定要转为字符串格式,要不会报不是字符串的错 url = "https://%252F%7C1527219534; cna=5hWHEx7lRkECAXL4l+2LMAfU; isg=BGBg3rAqL6QOz5OkNN5wbxWiMm7ywUxc_zvQMtpxLHsO1QD_gnkUwzbHaf3V_vwL; _uab_collina=152697209566826431413694; key=bfe31f4e0fb231d29e1d3ce951e2c780" cookies_dict = {} for cookie in cookies_str.split(";"): k, v = cookie.split("=", 1) cookies_dict[k.strip()] = v.strip() pass # 其他请求头参数 headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:52.0) Gecko/20100101 Firefox/52.0' } # 让服务器认为你是通过浏览器访问页面 page = requests.get(url=url,cookies=cookies_dict,headers=headers); # 转json json = json.loads(page.text); # 判断这个字段如果为未找到相关信息则跳出死循环 if json['data']['lqii']['change_query_tip'] == '未找到"水果店"相关结果': break; pass # 获取json长度用于添加Excel第几行 length = len(json['data']['poi_list']); # 循环json数据向Excel表格添加 for index,j in enumerate(json['data']['poi_list']): worksheet.write(index+(i-1)*length,0,j['disp_name']) worksheet.write(index+(i-1)*length,1,j['tel']) worksheet.write(index+(i-1)*length,2,j['address']) pass i+=1passworkbook.close()#最后关闭Excel表格 注意事项,当Excel表格正在打开的情况下会报没有关闭的错所以请关闭Excel再运行此程序以上这篇python requests爬取高德地图数据的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
使用python爬虫库requests,urllib爬取今日头条街拍美图代码均有注释importre,json,requests,osfromhashlibim
高德地图看海拔是在地图工具的坐标拾取器里。 高德地图(Amap)是高德软件有限公司于2011年5月17日推出的一款地图导航产品。高德地图具有动态导航、地图搜索
使用Chrome、python3.7、requests库和VSCode进行爬取马蜂窝黄鹤楼的文字评论(http://ment)else:print("爬取失败"
博主作为爬虫初学者,本次使用了requests和beautifulsoup库进行数据的爬取爬取网站:http://datachart.500.com/dlt/h
本文实例讲述了Python实现爬虫爬取NBA数据功能。分享给大家供大家参考,具体如下:爬取的网站为:stat-nba.com,这里爬取的是NBA2016-201