时间:2021-05-22
案例背景:视频识别
假设每次输入是8s的灰度视频,视频帧率为25fps,则视频由200帧图像序列构成.每帧是一副单通道的灰度图像,通过pythonb里面的np.stack(深度拼接)可将200帧拼接成200通道的深度数据.进而送到网络里面去训练.
如果输入图像200通道觉得多,可以对视频进行抽帧,针对具体场景可以随机抽帧或等间隔抽帧.比如这里等间隔抽取40帧.则最后输入视频相当于输入一个40通道的图像数据了.
pytorch对超过三通道数据的加载:
读取视频每一帧,转为array格式,然后依次将每一帧进行深度拼接,最后得到一个40通道的array格式的深度数据,保存到pickle里.
对每个视频都进行上述操作,保存到pickle里.
我这里将火的视频深度数据保存在一个.pkl文件中,一共2504个火的视频,即2504个火的深度数据.
将非火的视频深度数据保存在一个.pkl文件中,一共3985个非火的视频,即3985个非火的深度数据.
数据加载
import torch from torch.utils import dataimport osfrom PIL import Imageimport numpy as npimport pickle class Fire_Unfire(data.Dataset): def __init__(self,fire_path,unfire_path): self.pickle_fire = open(fire_path,'rb') self.pickle_unfire = open(unfire_path,'rb') def __getitem__(self,index): if index <2504: fire = pickle.load(self.pickle_fire)#高*宽*通道 fire = fire.transpose(2,0,1)#通道*高*宽 data = torch.from_numpy(fire) label = 1 return data,label elif index>=2504 and index<6489: unfire = pickle.load(self.pickle_unfire) unfire = unfire.transpose(2,0,1) data = torch.from_numpy(unfire) label = 0 return data,label def __len__(self): return 6489root_path = './datasets/train'dataset = Fire_Unfire(root_path +'/fire_train.pkl',root_path +'/unfire_train.pkl') #转换成pytorch网络输入的格式(批量大小,通道数,高,宽)from torch.utils.data import DataLoaderfire_dataloader = DataLoader(dataset,batch_size=4,shuffle=True,drop_last = True)模型训练
import torchfrom torch.utils import datafrom nets.mobilenet import mobilenetfrom config.config import default_configfrom torch.autograd import Variable as Vimport numpy as npimport sysimport time opt = default_config()def train(): #模型定义 model = mobilenet().cuda() if opt.pretrain_model: model.load_state_dict(torch.load(opt.pretrain_model)) #损失函数 criterion = torch.nn.CrossEntropyLoss().cuda() #学习率 lr = opt.lr #优化器 optimizer = torch.optim.SGD(model.parameters(),lr = lr,weight_decay=opt.weight_decay) pre_loss = 0.0 #训练 for epoch in range(opt.max_epoch): #训练数据 train_data = Fire_Unfire(opt.root_path +'/fire_train.pkl',opt.root_path +'/unfire_train.pkl') train_dataloader = data.DataLoader(train_data,batch_size=opt.batch_size,shuffle=True,drop_last = True) loss_sum = 0.0 for i,(datas,labels) in enumerate(train_dataloader): #print(i,datas.size(),labels) #梯度清零 optimizer.zero_grad() #输入 input = V(datas.cuda()).float() #目标 target = V(labels.cuda()).long() #输出 score = model(input).cuda() #损失 loss = criterion(score,target) loss_sum += loss #反向传播 loss.backward() #梯度更新 optimizer.step() print('{}{}{}{}{}'.format('epoch:',epoch,',','loss:',loss)) torch.save(model.state_dict(),'models/mobilenet_%d.pth'%(epoch+370))RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'target'
解决方案:target = target.long()
以上这篇pytorch实现对输入超过三通道的数据进行训练就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
三通道必须使用i7的QPI总线结构,否则会出现瓶颈。测试的内存是三通道的DDR3套件6GB海盗船TW3X4G2000C9DF内存,身为三通道DDR3内存的它的具
DDR31333经典系列能组建三通道吗三通道对于一般的使用者来说是没有意义的。用来测试数据,跑分还是有很大的意义的。 因此,为强化全方位的品牌价值,特别以Ac
三通道内存技术孕育而生。与双通道内存技术类似,三通道内存技术的出现主要是为了提升内存与处理器之间的通信带宽。 总线带宽和内存带宽不匹配之间的矛盾,随着
需要主板支持,一般主板上的内存插槽,若是支持双通道或者三通道的话,会以相同颜色表示。此时插入2条或者3条三通内内存就可以了。当然,有的主板可以自动开启双通道或者
三通道使用,因此从销售的方式上我们就可以看出这款内存非常适合组建双通道和三通道来使用。这款内存采用了金士顿HyperX传统的蓝色铝制散热片,其频率为DDR3-1