时间:2021-05-23
1.安装pip
我的个人桌面系统用的linuxmint,系统默认没有安装pip,考虑到后面安装requests模块使用pip,所以我这里第一步先安装pip。
$ sudo apt install python-pip安装成功,查看PIP版本:
$ pip -V2.安装requests模块
这里我是通过pip方式进行安装:
$ pip install requests运行import requests,如果没提示错误,那说明已经安装成功了!
检验是否安装成功
3.安装beautifulsoup4
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航,查找、修改文档的方式。Beautiful Soup会帮你节省数小时甚至数天的工作时间。
$ sudo apt-get install python3-bs4注:这里我使用的是python3的安装方式,如果你用的是python2,可以使用下面命令安装。
$ sudo pip install beautifulsoup44.requests模块浅析
1)发送请求
首先当然是要导入 Requests 模块:
>>> import requests然后,获取目标抓取网页。这里我以下为例:
>>> r = requests.get('https:///')>>> r.status_code2005.案例演示
最近公司刚引入了一款OA系统,这里我以其官方说明文档页面为例,并且只抓取页面中文章标题和内容等有用信息。
演示环境
操作系统:linuxmint
python版本:python 3.5.2
使用模块:requests、beautifulsoup4
代码如下:
#!/usr/bin/env python# -*- coding: utf-8 -*-_author_ = 'GavinHsueh'import requestsimport bs4#要抓取的目标页码地址url = 'http://www.ranzhi.org/book/ranzhi/about-ranzhi-4.html'#抓取页码内容,返回响应对象response = requests.get(url)#查看响应状态码status_code = response.status_code#使用BeautifulSoup解析代码,并锁定页码指定标签内容content = bs4.BeautifulSoup(response.content.decode("utf-8"), "lxml")element = content.find_all(id='book')print(status_code)print(element)程序运行返回爬去结果:
抓取成功
关于爬去结果乱码问题
其实起初我是直接用的系统默认自带的python2操作的,但在抓取返回内容的编码乱码问题上折腾了老半天,google了多种解决方案都无效。在被python2“整疯“之后,只好老老实实用python3了。对于python2的爬取页面内容乱码问题,欢迎各位前辈们分享经验,以帮助我等后生少走弯路。
后记
python的爬虫相关模块有很多,除了requests模块,再如urllib和pycurl以及tornado等。相比而言,我个人觉得requests模块是相对简单易上手的了。通过文本,大家可以迅速学会使用python的requests模块爬取页码内容。本人能力有限,如果文章有任何错误欢迎不吝赐教,其次如果大家有任何关于python爬去页面内容的疑难杂问,也欢迎和大家一起交流讨论。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
python中使用requests模块http请求时,发现中文参数不会自动的URL编码,并且没有找到类似urllib(python3)模块中urllib.par
使用python爬虫库requests,urllib爬取今日头条街拍美图代码均有注释importre,json,requests,osfromhashlibim
使用Chrome、python3.7、requests库和VSCode进行爬取马蜂窝黄鹤楼的文字评论(http://ment)else:print("爬取失败"
1、通过urllib.requests模块实现发送请求并读取网页内容的简单示例如下:#导入模块importurllib.request#打开需要爬取的网页res
本文实例为大家分享了python3爬取数据至mysql的具体代码,供大家参考,具体内容如下直接贴代码#!/usr/local/bin/python3.5#-*-