利用Pytorch实现简单的线性回归算法

时间:2021-05-22

最近听了张江老师的深度学习课程,用Pytorch实现神经网络预测,之前做Titanic生存率预测的时候稍微了解过Tensorflow,听说Tensorflow能做的Pyorch都可以做,而且更方便快捷,自己尝试了一下代码的逻辑确实比较简单。

Pytorch涉及的基本数据类型是tensor(张量)和Autograd(自动微分变量),对于这些概念我也是一知半解,tensor和向量,矩阵等概念都有交叉的部分,下次有时间好好补一下数学的基础知识,不过现阶段的任务主要是应用,学习掌握思维和方法即可,就不再深究了。tensor和ndarray可以相互转换,python的numpy库中的命令也都基本适用。

一些基本的代码:

import torch #导入torch包x = torch.rand(5, 3) #产生一个5*3的tensor,在 [0,1) 之间随机取值y = torch.ones(5, 3) #产生一个5*3的Tensor,元素都是1 #和numpy的命令一致#tensor的运算z = x + y #两个tensor可以直接相加q = x.mm(y.transpose(0, 1)) #x乘以y的转置 mm为矩阵的乘法,矩阵相乘必须某一个矩阵的行与另一个矩阵的列相等##Tensor与numpy.ndarray之间的转换import numpy as np #导入numpy包a = np.ones([5, 3]) #建立一个5*3全是1的二维数组(矩阵)b = torch.from_numpy(a) #利用from_numpy将其转换为tensorc = torch.FloatTensor(a) #另外一种转换为tensor的方法,类型为FloatTensor,还可以使LongTensor,整型数据类型b.numpy() #从一个tensor转化为numpy的多维数组from torch.autograd import Variable #导入自动梯度的运算包,主要用Variable这个类x = Variable(torch.ones(2, 2), requires_grad=True) #创建一个Variable,包裹了一个2*2张量,将需要计算梯度属性置为True

下面用pytorch做一个简单的线性关系预测

线性关系是一种非常简单的变量之间的关系,因变量和自变量在线性关系的情况下,可以使用线性回归算法对一个或多个因变量和自变量间的线性关系进行建模,该模型的系数可以用最小二乘法进行求解。生活中的场景往往会比较复杂,需要考虑多元线性关系和非线性关系,用其他的回归分析方法求解。

这里po上代码:

#人为生成一些样本点作为原始数据x = Variable(torch.linspace(0, 100).type(torch.FloatTensor)) rand = Variable(torch.randn(100)) * 10 #随机生成100个满足标准正态分布的随机数,均值为0,方差为1.将这个数字乘以10,标准方差变为10y = x + rand #将x和rand相加,得到伪造的标签数据y。所以(x,y)应能近似地落在y=x这条直线上import matplotlib.pyplot as plt #导入画图的程序包plt.figure(figsize=(10,8)) #设定绘制窗口大小为10*8 inchplt.plot(x.data.numpy(), y.data.numpy(), 'o') #绘制数据,考虑到x和y都是Variable,需要用data获取它们包裹的Tensor,并专成numpyplt.xlabel('X') plt.ylabel('Y') plt.show()

图示:

训练模型:

#a,b就是要构建的线性函数的系数a = Variable(torch.rand(1), requires_grad = True) #创建a变量,并随机赋值初始化b = Variable(torch.rand(1), requires_grad = True) #创建b变量,并随机赋值初始化print('Initial parameters:', [a, b])learning_rate = 0.0001 #设置学习率for i in range(1000): ### 增加了这部分代码,清空存储在变量a,b中的梯度信息,以免在backward的过程中会反复不停地累加 if (a.grad is not None) and (b.grad is not None): a.grad.data.zero_() b.grad.data.zero_() predictions = a.expand_as(x) * x+ b.expand_as(x) #计算在当前a、b条件下的模型预测数值 loss = torch.mean((predictions - y) ** 2) #通过与标签数据y比较,计算误差 print('loss:', loss) loss.backward() #对损失函数进行梯度反传,backward的方向传播算法 a.data.add_(- learning_rate * a.grad.data) #利用上一步计算中得到的a的梯度信息更新a中的data数值 b.data.add_(- learning_rate * b.grad.data) #利用上一步计算中得到的b的梯度信息更新b中的data数值##拟合x_data = x.data.numpy() plt.figure(figsize = (10, 7))xplot = plt.plot(x_data, y.data.numpy(), 'o') # 绘制原始数据yplot = plt.plot(x_data, a.data.numpy() * x_data + b.data.numpy()) #绘制拟合数据plt.xlabel('X') plt.ylabel('Y') str1 = str(a.data.numpy()[0]) + 'x +' + str(b.data.numpy()[0]) #图例信息plt.legend([xplot, yplot],['Data', str1]) #绘制图例plt.show()

图示:

测试:

x_test = Variable(torch.FloatTensor([1, 2, 10, 100, 1000])) #随便选择一些点1,2,……,1000predictions = a.expand_as(x_test) * x_test + b.expand_as(x_test) #计算模型的预测结果predictions #输出

ok,大功告成,可以看到用pytorch做机器学习确实无论是准确度还是方便性都有优势,继续探索学习。

以上这篇利用Pytorch实现简单的线性回归算法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章