浅析Python requests 模块

时间:2021-05-23

Python requests 模块

  requests 模块是我们使用的 python爬虫 模块 可以完成市场进80%的爬虫需求。

安装

pip install requests

使用

requests模块代码编写的流程:

  • - 指定url
  • - 发起请求
  • - 获取响应对象中的数据
  • - 持久化存储
-------------案例-------------------------import requests# 指定urlurl="https:///"# 发起请求response = requests.get(url)# 获取响应对象中的数据page_text = response.text# 持久化存储with open('./sogou.html','w',encoding='utf-8') as fp: fp.write()-------------------------------------------

参数

# post 数据response = requests.post(url=url,data=data,headers=headers)# get 数据response = requests.get(url=url,data=data,headers=headers)# 返回二进制数据response.content # 返回字符串数据 response.text # 返回json对象 response.json()

其他了解

1、该模块实现爬取数据前需要查找需要爬取数据的指定URL,可通过浏览器自带抓包功能。

# 浏览器抓取 Ajax 请求F12 --> Network --> XHR --> Name --> Response

2、上面的headers参数是进行UA伪装为了反反爬

反爬机制:UA检测 --> UA伪装

3、下面是http我们爬包是常用的请求头参数

- accept: 浏览器通过这个头告诉服务器,他所支持的数据类型  - Accept-Charset:浏览器通过这个头告诉服务器,它支持那种字符集  - Accept-Encoding:浏览器通过这个头告诉服务器,支持的压缩格式  - Accept-Language:浏览器通过这个头告诉服务器,他的语言环境  - Host:浏览器同过这个头告诉服务器,想访问哪台主机  - If-ModifiedSince:浏览器通过这个头告诉服务器,缓存数据的时间  - Heferer:浏览器通过这个头告诉服务器,客户及时那个页面来的,防盗链  - Connection:浏览器通过这个头告诉服务器,请求完后是断开链接还是保持链接  - X-Requested-With:XMLHttpRequest 代表通过ajax方式进行访问  - User-Agent:请求载体的身份标识

以上就是浅析Python requests 模块的详细内容,更多关于Python requests 模块的资料请关注其它相关文章!

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章