时间:2021-05-22
最近在学pytorch,在使用数据分批训练时在导入数据是使用了 DataLoader 在参数 num_workers的设置上使程序出现运行没有任何响应的结果 ,看看代码
import torch #导入模块import torch.utils.data as DataBATCH_SIZE=8 #每一批的数据量x=torch.linspace(1,10,10) #定义X为 1 到 10 等距离大小的数y=torch.linspace(10,1,10)#转换成torch能识别的Datasettorch_dataset = Data.TensorDataset( x,y) #将数据放入 torch_datasetloader=Data.DataLoader( dataset=torch_dataset, #将数据放入loader batch_size=BATCH_SIZE, #每个数据段大小为 BATCH_SIZE=5 shuffle=True , #是否打乱数据的排布 num_workers=2 #每次提取数据多进进程为2 )for epoch in range(3): for step,(batch_x,batch_y) in enumerate(loader): print('epoch',epoch,'|step:',step," | batch_x",batch_x.numpy(), '|batch_y:',batch_y.numpy())(以上代码取莫烦python教学视频,教学视频中没有报错)
程序就停止成这样了
上网查询没有得到有用的东西,因为程序没有报错,就是没有任何反应,(没有反应可能跟电脑或者编译器有关,我使用的是anconda spyder)于是决定自己找找
期初我采用在语句后面加 print('1')检测程序停在了什么地方,(其实这是一种笨方法,在这里可以采用断点调试)程序停在了 for step,(batch_x,batch_y) in enumerate(loader):
我以为是enumerate的问题,查资料发现这就是一个可返回列表元素和键值的函数,不存在问题
继续排查,把目光放在了loader,于是查询了DataLoader的参数
DataLoader的函数定义如下:
DataLoader(dataset, batch_size=1, shuffle=False, sampler=None,num_workers=0, collate_fn=default_collate, pin_memory=False,drop_last=False)1. dataset:加载的数据集(Dataset对象)
2. batch_size:batch size
3. shuffle::是否将数据打乱
4. sampler: 样本抽样,后续会详细介绍
5. num_workers:使用多进程加载的进程数,0代表不使用多进程
6. collate_fn: 如何将多个样本数据拼接成一个batch,一般使用默认的拼接方式即可
7. pin_memory:是否将数据保存在pin memory区,pin memory中的数据转到GPU会快一些
8. drop_last:dataset中的数据个数可能不是batch_size的整数倍,drop_last为True会将多出来不足一个batch的数据丢弃
发现我所定义的几个参数只有num_workers嫌疑最大,于是将参数值改成了默认值 0,程序可以运行了,(一把老泪纵横)
看看进程是什么鬼 发现在这里好像没啥用(具体自己上网查查)
以上这篇解决pytorch DataLoader num_workers出现的问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
PyTorch中数据读取的一个重要接口是torch.utils.data.DataLoader,该接口定义在dataloader.py脚本中,只要是用PyTor
关于Pytorch中怎么自定义Dataset数据集类、怎样使用DataLoader迭代加载数据,这篇官方文档已经说得很清楚了,这里就不在赘述。现在的问题:有的时
在使用pytorch训练模型,经常需要加载大量图片数据,因此pytorch提供了好用的数据加载工具Dataloader。为了实现小批量循环读取大型数据集,在Da
一、PyTorch批训练1.概述PyTorch提供了一种将数据包装起来进行批训练的工具——DataLoader。使用的时候,只需要将我们的数据首先转换为torc
如题:Pytorch在dataloader类中设置shuffle的随机数种子方式虽然实验结果差别不大,但是有时候也悬殊两个百分点想要复现实验结果发现用到随机数的