时间:2021-05-22
前言
众所周知,Dataset和Dataloder是pytorch中进行数据载入的部件。必须将数据载入后,再进行深度学习模型的训练。在pytorch的一些案例教学中,常使用torchvision.datasets自带的MNIST、CIFAR-10数据集,一般流程为:
# 下载并存放数据集train_dataset = torchvision.datasets.CIFAR10(root="数据集存放位置",download=True)# load数据train_loader = torch.utils.data.DataLoader(dataset=train_dataset)但是,在我们自己的模型训练中,需要使用非官方自制的数据集。这时应该怎么办呢?
我们可以通过改写torch.utils.data.Dataset中的__getitem__和__len__来载入我们自己的数据集。
__getitem__获取数据集中的数据,__len__获取整个数据集的长度(即个数)。
改写
采用pytorch官网案例中提供的一个脸部landmark数据集。数据集中含有存放landmark的csv文件,但是我们在这篇文章中不使用(其实也可以随便下载一些图片作数据集来实验)。
import osimport torchfrom skimage import io, transformimport numpy as npimport matplotlib.pyplot as pltfrom torch.utils.data import Dataset, DataLoaderfrom torchvision import transforms, utilsplt.ion() # interactive modetorch.utils.data.Dataset是一个抽象类,我们自己的数据集需要继承Dataset,然后改写上述两个函数:
class ImageLoader(Dataset): def __init__(self, file_path, transform=None): super(ImageLoader,self).__init__() self.file_path = file_path self.transform = transform # 对输入图像进行预处理,这里并没有做,预设为None self.image_names = os.listdir(self.file_path) # 文件名的列表 def __getitem__(self,idx): image = self.image_names[idx] image = io.imread(os.path.join(self.file_path,image))# if self.transform:# image= self.transform(image) return image def __len__(self): return len(self.image_names)# 设置自己存放的数据集位置,并plot展示 imageloader = ImageLoader(file_path="D:\\Projects\\datasets\\faces\\")# imageloader.__len__() # 输出数据集长度(个数),应为71# print(imageloader.__getitem__(0)) # 以数据形式展示plt.imshow(imageloader.__getitem__(0)) # 以图像形式展示plt.show()得到的图片输出:
得到的数据输出,:
array([[[ 66, 59, 53], [ 66, 59, 53], [ 66, 59, 53], ..., [ 59, 54, 48], [ 59, 54, 48], [ 59, 54, 48]], ..., [153, 141, 129], [158, 146, 134], [158, 146, 134]]], dtype=uint8)上面看到dytpe=uint8,实际进行训练的时候,常常需要更改成float的数据类型。可以使用:
# 直接改成pytorch中的tensor下的float格式 # 也可以用numpy的改成普通的float格式to_float= torch.from_numpy(imageloader.__getitem__(0)).float()改写完成后,直接使用train_loader =torch.utils.data.DataLoader(dataset=imageloader)载入到Dataloader中,就可以使用了。
下面的代码可以试着运行一下,产生的是一模一样的图片结果。
到此这篇关于PyTorch实现重写/改写Dataset并载入Dataloader的文章就介绍到这了,更多相关PyTorch重写/改写Dataset 内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
关于Pytorch中怎么自定义Dataset数据集类、怎样使用DataLoader迭代加载数据,这篇官方文档已经说得很清楚了,这里就不在赘述。现在的问题:有的时
DataLoader完整的参数表如下:classtorch.utils.data.DataLoader(dataset,batch_size=1,shuffle
在使用pytorch训练模型,经常需要加载大量图片数据,因此pytorch提供了好用的数据加载工具Dataloader。为了实现小批量循环读取大型数据集,在Da
PyTorch中数据读取的一个重要接口是torch.utils.data.DataLoader,该接口定义在dataloader.py脚本中,只要是用PyTor
pytorch之ImageFoldertorchvision已经预先实现了常用的Dataset,包括前面使用过的CIFAR-10,以及ImageNet、COCO