时间:2021-05-22
本文实例讲述了Python爬虫框架Scrapy常用命令。分享给大家供大家参考,具体如下:
在Scrapy中,工具命令分为两种,一种为全局命令,一种为项目命令。
全局命令不需要依靠Scrapy项目就可以在全局中直接运行,而项目命令必须要在Scrapy项目中才可以运行
全局命令
全局命令有哪些呢,要想了解在Scrapy中有哪些全局命令,可以在不进入Scrapy项目所在目录的情况下,运行scrapy-h,如图所示:
可以看到,此时在可用命令在终端下展示出了常见的全局命令,分别为fetch、runspider、settings、shell、startproject、version、view。
fetch命令
fetch命令主要用来显示爬虫爬取的过程.如下图所示:
在使用fetch命令时,同样可以使用某些参数进行相应的控制。那么fetch有哪些相关参数可以使用呢?我们可以通过scrpy fetch -h列出所有可以使用的fetch相关参数。比如我们可以使用–headers显示头信息,也可以使用–nolog控制不显示日志信息,还可以使用–spider=SPIDER参数来控制使用哪个爬虫,通过–logfile=FILE指定存储日志信息的文件,通过–loglevel=LEVEL控制日志等级。举个栗子:
# 显示头信息,并且不显示日志信息scrpay -fetch --headers --nolog http://此时在spider文件夹下会生成一个以xxx命名的py文件。可以使用scrapy genspider -l查看所有可用爬虫模板。当前可用的爬虫模板有:basic、crawl、csvfeed、xmlfeed
check命令
使用check命令可以实现对某个爬虫文件进行合同检查,即测试.
# xxx为爬虫名scrapy check xxxcrawl命令
启动某个爬虫
# xxx为爬虫名scrapy crawl xxxlist命令
列出当前可使用的爬虫文件
scrapy listedit命令
编辑爬虫文件
scrapy edit xxxparse命令
通过parse命令,我们可以实现获取指定的URL网址,并使用对应的爬虫文件进行处理和分析
日志等级
等级名 含义 CRITICAL 发生了最严重的错误 ERROR 发生了必须立即处理的错误 WARNING 出现了一些警告信息,即存在潜在错误 INFO 输出一些提示显示 DEBUG 输出一些调试信息
更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
Kafka常用命令行详细介绍及整理以下是kafka常用命令行总结:1.查看topic的详细信息./kafka-topics.sh-zookeeper127.0.
github常用命令最近开始研究github,mark下一些常用命令gitremoteaddupstreamhttps://github.com/winterI
今天小编给大家详细的讲解一下Scrapy爬虫框架,希望对大家的学习有帮助。1、Scrapy爬虫框架Scrapy是一个使用Python编程语言编写的爬虫框架,任何
0.目录1.前言2.安装python3.使用pip下载、安装包3.1安装Scrapy3.2安装PyQt3.3同时安装多个包3.4pip的常用命令1.前言之前在电
python访问抓取网页常用命令简单的抓取网页:importurllib.requesturl="http://google.cn/"response=urll