Python requests获取网页常用方法解析

时间:2021-05-22

这篇文章主要介绍了Python requests获取网页常用方法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

主要记录使用 requests 模块获取网页源码的方法

class Crawler(object): """ 采集类 """ def __init__(self, base_url): self._base_url = base_url self._cookie = None self._getCookie() def _getCookie(self): """ 获取站点cookie :return: """ try: res = requests.get(self._base_url) res.raise_for_status() # TODO response.cookies获取到的是一个cookiejar对象,需要使用requests.utils.dict_from_cookiejar来 # TODO 将cookiejar对象转换为一个字典,这个字典后续使用的时候,在请求时直接传入就可以了, # 如 requests.get(url, cookies=cookies) self._cookie = requests.utils.dict_from_cookiejar(res.cookies) print self._cookie except Exception as e: print e def get_html_text(self, url, **kwargs): """ 爬取网页的通用代码框架 :param url: :param method: :param kwargs: :return: """ try: kwargs.setdefault('cookies', self._cookie) res = requests.get(url, **kwargs) # TODO 若响应状态码不是200, 抛出 HTTPError 异常 res.raise_for_status() res.encoding = res.apparent_encoding # print requests.utils.dict_from_cookiejar(res.cookies) return res.text except Exception as e: print traceback.print_exc() return

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章