时间:2021-05-22
自己在刚学习python时写的,中途遇到很多问题,查了很多资料,下面就是我爬取租房信息的代码:
链家的房租网站两个导入的包1.requests 用来过去网页内容 2.BeautifulSoupimport timeimport pymssqlimport requestsfrom bs4 import BeautifulSoup# https://wh.lianjia.com/zufang/#获取url中下面的内容def get_page(url): responce = requests.get(url) soup = BeautifulSoup(responce.text,'lxml') return soup#封装成函数,作用是获取列表下的所有租房页面的链接,返回一个链接列表def get_links(url): responce = requests.get(url) soup = BeautifulSoup(responce.text,'lxml') link_div = soup.find_all('div',class_ = 'pic-panel') links = [div.a.get('href') for div in link_div] return links#收集一个房子的信息def get_house_info(house_url): soup = get_page(house_url) price = soup.find('span',class_='total').text unit = soup.find('span',class_= 'unit').text[1:-1] area = soup.find('p', class_ = 'lf').text house_info= soup.find_all('p',class_ = 'lf') area = house_info[0].text[3:] #字符串切片工具 layout = house_info[1].text[5:] info={ '价格':price, '单位':unit, '面积':area, '户型':layout } return info#链接数据库server="192.168.xx.xx" #换成自己的服务器信息user="liujiepeng"password="xxxxx" #自己的数据库用户名和密码conn=pymssql.connect(server,user,password,database="house")def insert(conn,house): #sql_values = values.format(house['价格'],house['单位'],house['面积'], #house['户型']) sql = "insert into [house].dbo.lianjia(price,unit,area,layout)values('%s','%s','%s','%s')"%(house["价格"],house["单位"],house["面积"],house["户型"]) print(sql) cursor = conn.cursor() #游标,开拓新的窗口 #cursor1 = conn.cursor() cursor.execute(sql) #执行sql语句 conn.commit() #提交 ,更新sql 语句links = get_links('https://wh.lianjia.com/zufang/')count = 1for link in links: #time.sleep(2) print('获取一个数据成功') house = get_house_info(link) insert(conn,house) print("第%s个数据,存入数据库成功!"%(count)) count = count+1 #print(house["价格"],end='\r')总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。如果你想了解更多相关内容请查看下面相关链接
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
为了分析深圳市所有长租、短租公寓的信息,爬取了某租房公寓网站上深圳区域所有在租公寓信息,以下记录了爬取过程以及爬取过程中遇到的问题:爬取代码:importreq
用Python进行爬取网页文字的代码:#!/usr/bin/python#-*-coding:UTF-8-*-importrequestsimportre#下载
在使用python爬取网站信息时,查看爬取完后的数据发现,数据并没有被爬取下来,这是因为网站中有UA这种请求载体的身份标识,如果不是基于某一款浏览器爬取则是不正
在学习Python爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个
本文实例讲述了Python爬取个人微信朋友信息操作。分享给大家供大家参考,具体如下:利用Python的itchat包爬取个人微信号的朋友信息,并将信息保存在本地