时间:2021-05-23
python访问抓取网页常用命令
简单的抓取网页:
import urllib.request url="http://google.cn/" response=urllib.request.urlopen(url) #返回文件对象page=response.read()直接将URL保存为本地文件:
import urllib.request url="http://google.cn/" response=urllib.request.urlopen(url) #返回文件对象page=response.read()POST方式:
import urllib.parse import urllib.request url="http://liuxin-blog.appspot.com/messageboard/add" values={"content":"命令行发出网页请求测试"} data=urllib.parse.urlencode(values) #创建请求对象 req=urllib.request.Request(url,data) #获得服务器返回的数据 response=urllib.request.urlopen(req) #处理数据 page=response.read()GET方式:
import urllib.parse import urllib.request url="http://www.google.cn/webhp" values={"rls":"ig"} data=urllib.parse.urlencode(values) theurl=url+"?"+data #创建请求对象 req=urllib.request.Request(theurl) #获得服务器返回的数据 response=urllib.request.urlopen(req) #处理数据 page=response.read()有2个常用的方法,geturl(),info()
geturl()的设置是为了辨别是否有服务器端的网址重定向,而info()则包含了一系列的信息。
中文问题的处理,会用到 encode()编码 dencode()解码:
感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
Kafka常用命令行详细介绍及整理以下是kafka常用命令行总结:1.查看topic的详细信息./kafka-topics.sh-zookeeper127.0.
github常用命令最近开始研究github,mark下一些常用命令gitremoteaddupstreamhttps://github.com/winterI
本人记忆力有限,就把平时在项目中遇到的linux常用命令分享给大家。Linux常用命令全集https://mand10.按时间的倒序排序复制代码代码如下:ls-
1.首先介绍pip常用命令pip安装命令:pipinstallpackage_namepip升级命令:pipinstall–ungragepackage_nam
本文实例讲述了Python爬虫框架Scrapy常用命令。分享给大家供大家参考,具体如下:在Scrapy中,工具命令分为两种,一种为全局命令,一种为项目命令。全局