使用pytorch实现线性回归

时间:2021-05-22

本文实例为大家分享了pytorch实现线性回归的具体代码,供大家参考,具体内容如下

线性回归都是包括以下几个步骤:定义模型、选择损失函数、选择优化函数、训练数据、测试

import torchimport matplotlib.pyplot as plt# 构建数据集x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]])y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]])#定义模型class LinearModel(torch.nn.Module): def __init__(self): super(LinearModel, self).__init__() self.linear= torch.nn.Linear(1,1) #表示输入输出都只有一层,相当于前向传播中的函数模型,因为我们一般都不知道函数是什么形式的 def forward(self, x): y_pred= self.linear(x) return y_predmodel= LinearModel()# 使用均方误差作为损失函数criterion= torch.nn.MSELoss(size_average= False)#使用梯度下降作为优化SGD# 从下面几种优化器的生成结果图像可以看出,SGD和ASGD效果最好,因为他们的图像收敛速度最快optimizer= torch.optim.SGD(model.parameters(),lr=0.01)# ASGD# optimizer= torch.optim.ASGD(model.parameters(),lr=0.01)# optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01)# optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01)# optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01)# 训练epoch_list=[]loss_list=[]for epoch in range(100): y_pred= model(x_data) loss= criterion(y_pred, y_data) epoch_list.append(epoch) loss_list.append(loss.item()) print(epoch, loss.item()) optimizer.zero_grad() #梯度归零 loss.backward() #反向传播 optimizer.step() #更新参数 print("w= ", model.linear.weight.item())print("b= ",model.linear.bias.item()) x_test= torch.Tensor([[7.0]])y_test= model(x_test)print("y_pred= ",y_test.data) plt.plot(epoch_list, loss_list)plt.xlabel("epoch")plt.ylabel("loss_val")plt.show()

使用SGD优化器图像:

使用ASGD优化器图像:

使用Adagrad优化器图像:

使用Adamax优化器图像:

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章