Python 通过爬虫实现GitHub网页的模拟登录的示例代码

时间:2021-05-23

1. 实例描述

通过爬虫获取网页的信息时,有时需要登录网页后才可以获取网页中的可用数据,例如获取 GitHub 网页中的注册号码时,就需要先登录账号才能在登录后的页面中看到该信息,如下图所示。那么该如何实现模拟登录的功能呢?本文实现将通过爬虫实现 GitHub 网页的模拟登录。

2. 代码实现

在实现 GitHub 网页的模拟登录时,首先需要查看提交登录请求时都要哪些请求参数,然后获取登录请求的所有参数,再发送登录请求。如果登录成功的情况下获取页面中的注册号码信息即可。具体步骤如下:

(1) 点击 此处 打开 GitHub 的登录页面,然后输入账号与密码,如下图所示。


(2) 用 F12 或者 鼠标右键单击网页选择 检查 打开浏览器的开发者工具,选择获取网络请求过程,然后单击登录页面中的 Sign in 按钮,此时开发者工具中将显示 GitHub 网页的登录请求过程,重点查找名称为 session 的网络请求。如下图所示。


(3) 单击名称为 session 的网络请求,然后在 Headers 请求信息中主要查看 Request Headers与 Form Data 中的各种信息,其中红框内为重要参数与数据。如下图所示。


说明:Host 为主页面地址,Referer 为当前请求的来源地址。User-Agent 为浏览器的头部信息。Form Data 中的所有信息都是登录请求的所用参数,其中动态参数为重要参数,authenticity_token 为加密字符串,login 为登录的账号,password 为密码,其它参数为静态参数。由于动态参数只有 authenticity_token、login 以及password ,而用户名与密码只需要将动态字符串填写对应的位置即可,所以接下来需要获取 authenticity_token 参数所对应的加密字符串。

(4) 在浏览器中退出所登录的 GitHub 账号,返回 GitHub 的登录页面,打开浏览器开发者工具,查看网页的 html 代码,然后在代码中搜索 authenticity_token 关键词,标签内 value 所对应的值为 authenticity_token 参数的加密字符串。如下图所示。


(5) 实现爬虫代码,首先导入所需模块,然后创建头部信息,再通过 Session 会话对象发送网络请求获取 authenticity_token 信息,最后通过所有的登陆请求参数实现 GitHub 网页的登陆请求并提取注册号码。具体代码如下:

# -*- coding: utf-8 -*-# @Time : 2020/5/10 23:25# @Author : 我就是任性-Amo# @FileName: 77.通过爬虫实现GitHub网页的模拟登录.py# @Software: PyCharm# @Blog :https://blog.csdn.net/xw1680import requests # 导入网络请求模块from lxml import etree # 导入数据解析模块 都是第三方模块需要安装 # pip install requests/lxml如果太慢 可以加上镜像服务器 或者在Pycharm中使用图形化界面进行安装class GitHubLogin(object): def __init__(self, username, password): # 构造头部信息 self.headers = { "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) " "AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36", "Host": "github.com", "Referer": "https://github.com/login" } self.login_url = "https://github.com/login" # 登录页面地址 self.post_url = "https://github.com/session" # 实现登录的请求地址 self.session = requests.Session() # 创建Session会话对象 self.user_name = username # 用户名 self.password = password # 密码 # 获取authenticity_token信息 def get_token(self): # 发送登录页面的网络请求 response = self.session.get(self.login_url, headers=self.headers) if response.status_code == 200: # 判断请求是否成功 html = etree.HTML(response.text) # 解析html # 提取authenticity_token信息 token = html.xpath("//div[@id='login']/form/input[1]/@value")[0] # print(token) 测试是否能够获取到token return token # 返回信息 # 实现登录 def login(self): # 请求参数 post_data = { "commit": "Sign in", "authenticity_token": self.get_token(), "login": self.user_name, "password": self.password, "webauthn - support": "supported" } # 发送登录请求 response = self.session.post(self.post_url, headers=self.headers, data=post_data) if response.status_code == 200: # 判断请求是否成功 html = etree.HTML(response.text) # 解析html # 获取注册号码 register_number = html.xpath("//div[contains(@class,'Header-item')][last()]//strong")[0] print(f"注册号码为: {register_number.text}") else: print("登录失败")if __name__ == '__main__': user_name = input("请输入您的用户名:") # 获取输入的用户名 password = input("请输入您的密码:") # 获取输入的密码 login = GitHubLogin(user_name, password) # 创建登录类对象并传递输入的用户名与密码 login.login()

执行以上代码,输入用户名与密码,即可显示获取的注册号码。如下图所示:

到此这篇关于Python 通过爬虫实现GitHub网页的模拟登录的示例代码的文章就介绍到这了,更多相关Python GitHub模拟登录内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章