时间:2021-05-22
分片读取http超大文件流
Golang中的HTTP发送get请求,在获取内容有两种情况。
Golang发送http get请求方式
resp, err := http.Get(sendUrl)if err != nil { fmt.Println("出错", err) return}第一种方式是直接全部读取出来,这种方式在小数据量的时候很方便。
body变量直接全部接收resp响应内容
body, err2 := ioutil.ReadAll(resp.Body)
第二种方式,分片获取。
首先顶一个切片buf := make([]byte, 4096) 容量和大小都是4096个char字符(切片就是Golang自己的动态变长数组)
for无限循环读取,读取一块内容放入buf中。result 是一个string字符串,然后用 result 自动拼接。
for { n, err:= resp.Body.Read(buf) if err != nil || n == 0{ fmt.Println("出现错误") break } result += string(buf[:n])}MustCompile内容不是单引号,而是 `
// 解析,编译正则表达式ret := regexp.MustCompile(`<img width="100" alt="(?:(.*?))"`)//提取需要信息var fileName [][] string = ret.FindAllStringSubmatch(result, -1)该方法可以进一步推广,可以推广到下载超大文件,然后分片读取和写入硬盘。
然后再开启另一个线程去将这些已经写入硬盘的分片合称在一起。
Java中的多线程,如果主线程开启多个子线程后,在多个子线程全部完成后,主线程才会退出,程序终止。
而在Golang中不会出现此类情况,主Go程和子Go程需要人为控制主GO程和子GO程同步,否则主GO程瞬间结束。
在主GO程开始执行子GO程地方创建一个 channel。子GO程开始往 channel 中添加数据,主GO程再消费数据。
func toWork(start, end int) { //子Go程与主Go程完成同步,意思是子Go程没有全部执行完毕,主Go程不许退出。 page := make(chan int) for i:=start; i<=end; i++ { //开启子GO程 go SpiderPage(i, page) } //主GO程开始消费管道中的数据 for i:=start; i<=end; i++ { fmt.Println("爬取完成", <- page) }}往主GO程的channel中添加数据,提供给主GO程消费从而达到同步
func SpiderPage(index int, page chan int) { page <- index}创建文件
获取http流
分片逐步写入
func saveImag(sendUrl string, index int, imageChannel chan int) { //创建文件 path := "C:/img/" + strconv.Itoa(index) + ".jpg" f, err := os.Create(path) if err != nil { return } defer f.Close() //获取http流 resp, err :=http.Get(sendUrl) if err != nil { return } defer resp.Body.Close() //分片逐步写入 buf := make([]byte, 4096) for { n, err := resp.Body.Read(buf) if err != nil { break } f.Write(buf[:n]) } imageChannel <- index}补充:golang实现http表单大文件流式上传服务端代码
golang的http标准库的上传文件是一次性将文件全部读到内存中,这样上传小文件还可以,但是大文件就无能为力了。
一开始在网上找到一篇gin实现大文件流式上传的文章。大体思路是手动解析form表单的header和body,然后分片读取上传的文件内容。但是代码量有点多且复杂。有兴趣的同学可以自行百度。
后来在github找到一个库
github.com/albrow/forms
可以看到这个库读取上传文件的方法
func (d Data) GetFileBytes(key string) ([]byte, error) { fileHeader, found := d.Files[key] if !found { return nil, nil } else { file, err := fileHeader.Open() if err != nil { return nil, err } return ioutil.ReadAll(file) }}最后使用的是ioutil.ReadAll,大文件上传的话就会有问题,要实现流式上传,可以在这个包里加一个方法。以下是我自己加的方法
func (d Data) GetFileReader(key string) (io.Reader, error) { fileHeader, found := d.Files[key] if !found { return nil, nil } else { file, err := fileHeader.Open() if err != nil { return nil, err } return file, nil }}得到reader后使用io.Copy即可将文件落盘
userData, err := forms.Parse(c.Request) if err != nil { log.Printf("parse错误:%v", err) return } header := userData.GetFile("file") fileReader, err := userData.GetFileReader("file") if err != nil { log.Printf("获取reader错误:%v", err) return } file, _ := os.Create(header.Filename) io.Copy(file, fileReader)以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文基于httpRangeRequests协议,实现了分片下载的功能。使用场景包括基于浏览器的流文件片段传输、基于客户端的分片下载等。原理http通过Range
php读取大文件可以使用file函数和fseek函数,但是二者之间效率可能存在差异,本文章向大家介绍phpfile函数与fseek函数实现大文件读取效率对比分析
本文实例讲述了C#使用FileStream循环读取大文件数据的方法。分享给大家供大家参考,具体如下:今天学习了FileStream的用法,用来读取文件流,教程上
C#利用缓存分块读写大文件,供大家参考,具体内容如下在日常生活中,可能会遇到大文件的读取,不论是什么格式,按照储存文件的格式读取大文件,就会在Buffer中看到
写在前面: 文件上传方式很多的,对于大文件的上传,在本次项目中也有涉及,主要是用了分片断点上传大文件。所以就去了解了一下WebUploader,先从简单的上传