python爬虫用request库处理cookie的实例讲解

时间:2021-05-22

python爬虫中使用urli库可以使用opener"发送多个请求,这些请求是能共享处理cookie的,小编之前也提过python爬虫中使用request库会比urllib库更加⽅便,使用使用requests也能达到共享cookie的目的,即使用request库get方法和使用requests库提供的session对象都可以处理。

方法一:使用request库get方法

resp = requests.get('http:///256450404/profile')print(resp.text) ```

知识点扩展:

我们知道了requests中的session对象能够在请求之间保持cookie,它极大地方便了我们去使用cookie。当我们想设置方法级别中的请求时,可以如下面示例一样操作。

import requestss = requests.session()# 第一步:发送一个请求,用于设置请求中的cookiescookies = dict(cookies_are='cookie1')# tips: http://httpbin.org能够用于测试http请求和响应r1 = s.get(url='http://httpbin.org/cookies', cookies=cookies)print(r1.text)# 第二步:发送一个请求,用于再次设置请求中的cookiescookies = dict(cookies_are='cookie2')r2 = s.get(url='http://httpbin.org/cookies', cookies=cookies)print(r2.text)

运行后

# r1.text{ "cookies": { "cookies_are": "cookie1" }}# t2.text{ "cookies": { "cookies_are": "cookie2" }}

到此这篇关于python爬虫用request库处理cookie的实例讲解的文章就介绍到这了,更多相关python爬虫如何使用request库处理cookie内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章