时间:2021-05-22
自动求导机制是每一个深度学习框架中重要的性质,免去了手动计算导数,下面用代码介绍并举例说明Pytorch的自动求导机制。
首先介绍Variable,Variable是对Tensor的一个封装,操作和Tensor是一样的,但是每个Variable都有三个属性:Varibale的Tensor本身的.data,对应Tensor的梯度.grad,以及这个Variable是通过什么方式得到的.grad_fn,根据最新消息,在pytorch0.4更新后,torch和torch.autograd.Variable现在是同一类。torch.Tensor能像Variable那样追踪历史和反向传播。Variable仍能正确工作,但是返回的是Tensor。
我们拥抱这些新特性,看看Pytorch怎么进行自动求梯度。
输出结果是:
tensor([8.])
这里添加一个小知识点,即torch.Tensor和torch.tensor的不同。二者均可以生成新的张量,但torch.Tensor()是python类,是默认张量类型torch.FloatTensor()的别名,使用torch.Tensor()会调用构造函数,生成单精度浮点类型的张量。
而torch.tensor()是函数,其中data可以是list,tuple,numpy,ndarray,scalar和其他类型,但只有浮点类型的张量能够自动求梯度。
torch.tensor(data, dtype=None, device=None, requires_grad=False)
言归正传,上一个例子的变量本质上是标量。下面一个例子对矩阵求导。
#encoding:utf-8import torchx = torch.ones((2,4),requires_grad=True)y = torch.ones((2,1),requires_grad=True)W = torch.ones((4,1),requires_grad=True)J = torch.sum(y - torch.matmul(x,W)) #torch.matmul()表示对矩阵作乘法J.backward()print(x.grad)print(y.grad)print(W.grad)输出结果是:
tensor([[-1., -1., -1., -1.], [-1., -1., -1., -1.]])tensor([[1.], [1.]])tensor([[-2.], [-2.], [-2.], [-2.]])以上这篇Pytorch中的自动求梯度机制和Variable类实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例为大家分享了pytorch使用Variable实现线性回归的具体代码,供大家参考,具体内容如下一、手动计算梯度实现线性回归#导入相关包importtor
pytorch中基本的变量类型当属FloatTensor(以下都用floattensor),而Variable(以下都用variable)是floattenso
方法一:手动计算变量的梯度,然后更新梯度importtorchfromtorch.autogradimportVariable#定义参数w1=Variable(
本文实例讲述了PHPMVC框架中类的自动加载机制。分享给大家供大家参考,具体如下:原文实现类的自动加载主要使用到了set_include_path和spl_au
1.简介torch.autograd.Variable是Autograd的核心类,它封装了Tensor,并整合了反向传播的相关实现Variable和tensor