时间:2021-05-23
示例代码:
import requestsimport osdef downlaod(url, file_path): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:68.0) Gecko/20100101 Firefox/68.0" } r = requests.get(url=url, headers=headers) with open(file_path, "wb") as f: f.write(r.content) f.flush()默认情况下是stream的值为false,它会立即开始下载文件并存放到内存当中,倘若文件过大就会导致内存不足的情况,程序就会报错。
当把get函数的stream参数设置成True时,它不会立即开始下载,当你使用iter_content或iter_lines遍历内容或访问内容属性时才开始下载,需要注意一点:文件没有下载之前,它也需要保持连接。
使用上面两个函数下载大文件可以防止占用过多的内存,因为每次只下载小部分数据。
示例代码:
由于request的请求是阻塞式的,所以要用aiohttp模块来发起请求。
示例代码:
import aiohttpimport asyncioimport osasync def handler(url, file_path): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:68.0) Gecko/20100101 Firefox/68.0" } async with aiohttp.ClientSession() as session: r = await session.get(url=url, headers=headers) with open(file_path, "wb") as f: f.write(await r.read()) f.flush() os.fsync(f.fileno())loop = asyncio.get_event_loop()loop.run_until_complete(handler(url, file_path))上面用的是一个协程下载一个文件,下面的方法是将文件分成几部分,每个部分用一个协程下载,最后再写入文件。
下面这个例子用的是流式写入,即把内容写入到磁盘里面。
import aiohttpimport asyncioimport timeimport osasync def consumer(queue): option = await queue.get() start = option["start"] end = option["end"] url = option["url"] filename = option["filename"] i = option["i"] print(f"第{i}个任务开始运行") async with aiohttp.ClientSession() as session: headers = {"Range": f"bytes={start}-{end}"} r = await session.get(url=url, headers=headers) with open(filename, "rb+") as f: f.seek(start) while True: chunk = await r.content.read(end - start) if not chunk: break f.write(chunk) f.flush() os.fsync(f.fileno()) print(f"第{i}个任务正在写入中ing") queue.task_done() print(f"第{i}个任务写入成功")async def producer(url, headers, filename, queue, coro_num): async with aiohttp.ClientSession() as session: resp = await session.head(url=url, headers=headers) file_size = int(resp.headers["content-length"]) # 创建一个文件 with open(filename, "wb") as f: pass part = file_size // coro_num for i in range(coro_num): start = part * i if i == coro_num - 1: end = file_size else: end = start + part info = { "start": start, "end": end, "url": url, "filename": filename, "i": i, } queue.put_nowait(info)async def main(): # 需要填的有url,filename,coro_num url = "" filename = "" coro_num = 0 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:68.0) Gecko/20100101 Firefox/68.0" } queue = asyncio.Queue(coro_num) await producer(url, headers, filename, queue, coro_num) task_list = [] for i in range(coro_num): task = asyncio.create_task(consumer(queue)) task_list.append(task) await queue.join() for i in task_list: i.cancel() await asyncio.gather(*task_list)startt = time.time()loop = asyncio.get_event_loop()loop.run_until_complete(main())end = time.time() - starttprint(f"用了{end}秒")以上的示例都是介绍思路,程序并不健壮,健壮的程序需要加入错误捕获和错误处理。
以上就是python 下载文件的几种方式分享的详细内容,更多关于python 下载文件的资料请关注其它相关文章!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例讲述了python实现支持目录FTP上传下载文件的方法。分享给大家供大家参考。具体如下:该程序支持ftp上传下载文件和目录、适用于windows和lin
本文实例为大家分享了servlet下载文件的具体代码,供大家参考,具体内容如下1.servlet下载文件 servlet下载文件就是将服务器端的文件传输到客户
本文实例讲述了Python使用wget实现下载网络文件功能。分享给大家供大家参考,具体如下:wget是一个从网络上自动下载文件的自由工具。它支持HTTP,HTT
本文实例讲述了python实现的简单FTP上传下载文件的方法。分享给大家供大家参考。具体如下:python本身自带一个FTP模块,可以实现上传下载的函数功能。#
Python实现批量下载文件#!/usr/bin/envpython#-*-coding:utf-8-*-fromgeventimportmonkeymonke