时间:2021-05-23
selenium优势
selenium使用流程:
1.环境安装:pip install selenium
2.下载一个浏览器的驱动程序(谷歌浏览器)
3.实例化一个浏览器对象
代码
from selenium import webdriverfrom lxml import etreefrom time import sleepif __name__ == '__main__': bro = webdriver.Chrome(r"E:\google\Chrome\Application\chromedriver.exe") bro.get(url='http://scxk.nmpa.gov.cn:81/xk/') page_text = bro.page_source tree = etree.HTML(page_text) li_list = tree.xpath('//*[@id="gzlist"]/li') for li in li_list: name = li.xpath('./dl/@title')[0] print(name) sleep(5) bro.quit()代码
#编写基于浏览器自动化的操作代码- 发起请求: get(url)- 标签定位: find系列的方法- 标签交互: send_ keys( 'xxx' )- 执行js程序: excute_script('jsCod')- 前进,后退: back(),forward( )- 关闭浏览器: quit()代码
https://')print(bro.page_source)sleep(2)bro.quit()
到此这篇关于python爬虫selenium模块详解的文章就介绍到这了,更多相关python爬虫selenium模块内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
使用python写爬虫时,优选selenium,由于PhantomJS因内部原因已经停止更新,最新版的selenium已经使用headlesschrome替换掉
Pythonrequests模块 requests模块是我们使用的python爬虫模块可以完成市场进80%的爬虫需求。安装pipinstallrequests
之所以把selenium爬虫称之为可视化爬虫主要是相较于前面所提到的几种网页解析的爬虫方式selenium爬虫主要是模拟人的点击操作selenium驱动浏览器并
上篇文章给大家介绍了Python爬虫实现百度翻译功能过程详解Python爬虫学习之翻译小程序感兴趣的朋友点击查看。今天给大家介绍Python爬虫制作翻译程序的方
python爬虫写起来非常快,虽然也可以用java,但是没有python来的简洁迅速selenium在前面总结过,是一个自动化测试库。headlesschrom