时间:2021-05-22
这篇文章主要介绍了python用requests实现http请求过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
1. get
import requests# 最简单的get请求r = requests.get(url)print(r.status_code)print(r.json())# url 中?key=value&key=valuer = requests.get(url, params=params)# form 表单params = {"username":"name", "password":"passw0rd"}headers = {'Content-Type':'application/x-www-form-urlencoded'}r = requests.get(url, params=params, headers=headers)# 下载r = requests.get(url)r.raise_for_status()with open(target, 'wb') as f: for ch in r.iter_content(10000): result_file_size += f.write(ch)2. post请求
data = {'name':'train', 'device':'CN0989'}r = requests.post(url, json=data)#上传files = { "file": (os.path.basename(filepath), open(filepath, "rb"), "application/zip")}print('POST %s'%url)with open(filepath, 'rb') as f: r = requests.post(url, files=files)3. 登录
_session = requests.Session()# loginurl = '%s/login'%_basic_urlparams = {"username":"admin", "password":"admin"}headers = {'Content-Type':'application/x-www-form-urlencoded'}r = _session.post(url, params=params, headers=headers)#做其他请求r = _session.get(url)_session.close()以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
python爬虫要用到的库:请求库:实现HTTP请求操作urllib:一系列用于操作URL的功能。requests:基于urllib编写的,阻塞式HTTP请求库
Python的requests库,其口号是HTTPforhumans,堪称最好用的HTTP库。使用requests库,可以使用数行代码实现自动化的http操作。
这篇文章主要介绍了如何基于Python+requests实现发送HTTP请求,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的
1、Requests模块说明Requests是使用Apache2Licensed许可证的HTTP库。用Python编写,真正的为人类着想。Python标准库中的
Python3处理HTTP请求的包:http.client,urllib,urllib3,requests其中,http比较low-level,一般不直接使用u