时间:2021-05-23
本文以搜书网一小说为例《嘘,梁上有王妃!》
目录网址:https:///XuLiangShangYouWangFei'chapter_html=requests.get(base_url)chapter_page=ds(chapter_html.content,'lxml')chapter_novel=chapter_page.find(id="novel108799")#print(chapter_novel)chapter_novel_str=str(chapter_novel)regx = '<dd><a href="/XuLiangShangYouWangFei(.*?)"'chapter_href_list = re.findall(regx, chapter_novel_str)#print(chapter_href_list)chapter_url_list = []for i in chapter_href_list: url=base_url+i chapter_url_list.append(url)#print(chapter_url_list)for u in chapter_url_list: body_html=requests.get(u) body_page=ds(body_html.content,'lxml') body = body_page.find(class_='content') body_content=str(body) # print(body_content) body_regx='<br/> (.*?)\n' content_list=re.findall(body_regx,body_content) #print(content_list) title_regx = '<h1>(.*?)</h1>' title = re.findall(title_regx, body_html.text) #print(title) with open('1.txt', 'a+') as f: f.write('\n\n') f.write(title[0] + '\n') f.write('\n\n') for e in content_list: f.write(e + '\n') print('{} 爬取完毕'.format(title[0]))
到此这篇关于使用PyCharm批量爬取小说的文章就介绍到这了,更多相关PyCharm批量爬取小说内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
爬取”顶点小说网“《纯阳剑尊》代码importrequestsfrombs4importBeautifulSoup#反爬headers={'User-Agent
本文实例讲述了Python实现的爬取小说爬虫功能。分享给大家供大家参考,具体如下:想把顶点小说网上的一篇持续更新的小说下下来,就写了一个简单的爬虫,可以爬取爬取
你好,甩手工具箱中的爬取产品就可以整篇爬取阿里的产品,大批量爬取产品,单独爬取产品导出来淘宝数据包,导出来数据文件立即导进淘宝助理上传入自身店面,爬取产品的协助
本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下:本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的
简介一般批量爬取视频或者图片的套路是,使用爬虫获得文件链接集合,然后通过writeFile等方法逐个保存文件。然而,头条的视频,在需要爬取的html文件(服务端