时间:2021-05-22
本文用于利用Pytorch实现神经网络的分类!!!
1.训练神经网络分类模型
import torchfrom torch.autograd import Variableimport matplotlib.pyplot as pltimport torch.nn.functional as Fimport torch.utils.data as Datatorch.manual_seed(1)#设置随机种子,使得每次生成的随机数是确定的BATCH_SIZE = 5#设置batch size #1.制作两类数据n_data = torch.ones( 1000,2 )x0 = torch.normal( 1.5*n_data, 1 )#均值为2 标准差为1y0 = torch.zeros( 1000 ) x1 = torch.normal( -1.5*n_data,1 )#均值为-2 标准差为1y1 = torch.ones( 1000 )print("数据集维度:",x0.size(),y0.size()) #合并训练数据集,并转化数据类型为浮点型或整型x = torch.cat( (x0,x1),0 ).type( torch.FloatTensor )y = torch.cat( (y0,y1) ).type( torch.LongTensor )print( "合并后的数据集维度:",x.data.size(), y.data.size() ) #当不使用batch size训练数据时,将Tensor放入Variable中# x,y = Variable(x), Variable(y)#绘制训练数据# plt.scatter( x.data.numpy()[:,0], x.data.numpy()[:,1], c=y.data.numpy())# plt.show() #当使用batch size训练数据时,首先将tensor转化为Dataset格式torch_dataset = Data.TensorDataset(x, y) #将dataset放入DataLoader中loader = Data.DataLoader( dataset=torch_dataset, batch_size = BATCH_SIZE,#设置batch size shuffle=True,#打乱数据 num_workers=2#多线程读取数据) #2.前向传播过程class Net(torch.nn.Module):#继承基类Module的属性和方法 def __init__(self, input, hidden, output): super(Net, self).__init__()#继承__init__功能 self.hidden = torch.nn.Linear(input, hidden)#隐层的线性输出 self.out = torch.nn.Linear(hidden, output)#输出层线性输出 def forward(self, x): x = F.relu(self.hidden(x)) x = self.out(x) return x # 训练模型的同时保存网络模型参数def save(): #3.利用自定义的前向传播过程设计网络,设置各层神经元数量 # net = Net(input=2, hidden=10, output=2) # print("神经网络结构:",net) #3.快速搭建神经网络模型 net = torch.nn.Sequential( torch.nn.Linear(2,10),#指定输入层和隐层结点,获得隐层线性输出 torch.nn.ReLU(),#隐层非线性化 torch.nn.Linear(10,2)#指定隐层和输出层结点,获得输出层线性输出 ) #4.设置优化算法、学习率 # optimizer = torch.optim.SGD( net.parameters(), lr=0.2 ) # optimizer = torch.optim.SGD( net.parameters(), lr=0.2, momentum=0.8 ) # optimizer = torch.optim.RMSprop( net.parameters(), lr=0.2, alpha=0.9 ) optimizer = torch.optim.Adam( net.parameters(), lr=0.2, betas=(0.9,0.99) ) #5.设置损失函数 loss_func = torch.nn.CrossEntropyLoss() plt.ion()#打开画布,可视化更新过程 #6.迭代训练 for epoch in range(2): for step, (batch_x, batch_y) in enumerate(loader): out = net(batch_x)#输入训练集,获得当前迭代输出值 loss = loss_func(out, batch_y)#获得当前迭代的损失 optimizer.zero_grad()#清除上次迭代的更新梯度 loss.backward()#反向传播 optimizer.step()#更新权重 if step%200==0: plt.cla()#清空之前画布上的内容 entire_out = net(x)#测试整个训练集 #获得当前softmax层最大概率对应的索引值 pred = torch.max(F.softmax(entire_out), 1)[1] #将二维压缩为一维 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn') accuracy = sum(pred_y == label_y)/y.size() print("第 %d 个epoch,第 %d 次迭代,准确率为 %.2f"%(epoch+1, step/200+1, accuracy)) #在指定位置添加文本 plt.text(1.5, -4, 'Accuracy=%.2f' % accuracy, fontdict={'size': 15, 'color': 'red'}) plt.pause(2)#图像显示时间 #7.保存模型结构和参数 torch.save(net, 'net.pkl') #7.只保存模型参数 # torch.save(net.state_dict(), 'net_param.pkl') plt.ioff()#关闭画布 plt.show() if __name__ == '__main__': save()2. 读取已训练好的模型测试数据
import torchfrom torch.autograd import Variableimport matplotlib.pyplot as pltimport torch.nn.functional as F #制作数据n_data = torch.ones( 100,2 )x0 = torch.normal( 1.5*n_data, 1 )#均值为2 标准差为1y0 = torch.zeros( 100 ) x1 = torch.normal( -1.5*n_data,1 )#均值为-2 标准差为1y1 = torch.ones( 100 )print("数据集维度:",x0.size(),y0.size()) #合并训练数据集,并转化数据类型为浮点型或整型x = torch.cat( (x0,x1),0 ).type( torch.FloatTensor )y = torch.cat( (y0,y1) ).type( torch.LongTensor )print( "合并后的数据集维度:",x.data.size(), y.data.size() ) #将Tensor放入Variable中x,y = Variable(x), Variable(y) #载入模型和参数def restore_net(): net = torch.load('net.pkl') #获得载入模型的预测输出 pred = net(x) # 获得当前softmax层最大概率对应的索引值 pred = torch.max(F.softmax(pred), 1)[1] # 将二维压缩为一维 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() accuracy = sum(pred_y == label_y) / y.size() print("准确率为:",accuracy) plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn') plt.show()#仅载入模型参数,需要先创建网络模型def restore_param(): net = torch.nn.Sequential( torch.nn.Linear(2,10),#指定输入层和隐层结点,获得隐层线性输出 torch.nn.ReLU(),#隐层非线性化 torch.nn.Linear(10,2)#指定隐层和输出层结点,获得输出层线性输出 ) net.load_state_dict( torch.load('net_param.pkl') ) #获得载入模型的预测输出 pred = net(x) # 获得当前softmax层最大概率对应的索引值 pred = torch.max(F.softmax(pred), 1)[1] # 将二维压缩为一维 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() accuracy = sum(pred_y == label_y) / y.size() print("准确率为:",accuracy) plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn') plt.show() if __name__ =='__main__': # restore_net() restore_param()以上这篇Pytorch实现神经网络的分类方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文为大家讲解了pytorch实现CNN卷积神经网络,供大家参考,具体内容如下我对卷积神经网络的一些认识卷积神经网络是时下最为流行的一种深度学习网络,由于其具有
1Pytorch以ONNX方式保存模型defsaveONNX(model,filepath):'''保存ONNX模型:parammodel:神经网络模型:par
本文实例为大家分享了tensorflow神经网络实现mnist分类的具体代码,供大家参考,具体内容如下只有两层的神经网络,直接上代码#引入包importtens
使用Pytorch来编写神经网络具有很多优势,比起Tensorflow,我认为Pytorch更加简单,结构更加清晰。希望通过实战几个Pytorch的例子,让大家
本篇文章主要通过一个简单的例子来实现神经网络。训练数据是随机产生的模拟数据集,解决二分类问题。下面我们首先说一下,训练神经网络的一般过程:1.定义神经网络的结构