时间:2021-05-22
环境:
ubuntu16.04
python3.5
python库: selenium, pyquery,pymongo, re
要求:
设置×××面浏览器访问,并将商品列表存入mongoDB数据库.
分析过程暂时略过
代码:
#!/usr/bin/env python# -*- coding:utf-8 -*-"""1.爬取淘宝美食的流程- 搜索关键字: 用selenium打开浏览器,模拟输入关键字,并搜索对应的商品列表.- 分析页码并翻页,模拟翻页,查看到所有页面的商品列表.- 分析并提取商品,利用Pyquery分析源码,解析得到商品列表.- 存储到MONGODB数据库,将商品列表信息存储到mongoDB数据库."""from selenium import webdriverfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.common.exceptions import TimeoutExceptionfrom pyquery import PyQuery as pqimport refrom anli.mongoconfig import *import pymongoclient = pymongo.MongoClient(MONGO_URL)db = client[MONGO_DB]#设置×××面访问opt = webdriver.FirefoxOptions()opt.set_headless()browser = webdriver.Firefox(options=opt)#等待浏览器加载页面成功.wait = WebDriverWait(browser,10)def search(): try: # 后台打开浏览器 browser.get('https://pile('(\d+)').search(total).group(1)) print(total) for i in range(2,total + 1): next_page(i)if __name__=='__main__': main() #关闭×××面浏览器. browser.quit()#mongoconfig.py#!/usr/bin/env python# -*- coding:utf-8 -*-MONGO_URL = 'localhost'MONGO_DB = 'taobao'MONGO_TABLE = 'meishi'安装和使用mongodb参考:
//www.jb51.net/article/54758.htm
实现效果:
注意:
chrome浏览器和firefox浏览器的网页元素不太一样.
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例为大家分享了python3爬取数据至mysql的具体代码,供大家参考,具体内容如下直接贴代码#!/usr/local/bin/python3.5#-*-
分享给大家供大家参考,具体如下:Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法。分享给大家供大家参考,具体如下:首先我们创建一个pyth
本文实例讲述了Python实现爬虫爬取NBA数据功能。分享给大家供大家参考,具体如下:爬取的网站为:stat-nba.com,这里爬取的是NBA2016-201
本文实例讲述了Python爬虫实现简单的爬取有道翻译功能。分享给大家供大家参考,具体如下:#-*-coding:utf-8-*-#!python3importu
本文实例讲述了python实现爬取千万淘宝商品的方法。分享给大家供大家参考。具体实现方法如下:importtimeimportleveldbfromurllib