时间:2021-05-22
背景
使用pytorch时,有一个yolov3的bug,我认为涉及到学习率的调整。收集到tencent yolov3和mxnet开源的yolov3,两个优化器中的学习率设置不一样,而且使用GPU数目和batch的更新也不太一样。据此,我简单的了解了下pytorch的权重梯度的更新策略,看看能否一窥究竟。
对代码说明
共三个实验,分布写在代码中的(一)(二)(三)三个地方。运行实验时注释掉其他两个
实验及其结果
实验(三):
不使用zero_grad()时,grad累加在一起,官网是使用accumulate 来表述的,所以不太清楚是取的和还是均值(这两种最有可能)。
不使用zero_grad()时,是直接叠加add的方式累加的。
tensor([[[ 1., 1.],……torch.Size([2, 2, 2])0 2 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * tensor([[[ 2., 2.],…… torch.Size([2, 2, 2])1 2 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * tensor([[[ 3., 3.],…… torch.Size([2, 2, 2])2 2 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *实验(二):
单卡上不同的batchsize对梯度是怎么作用的。 mini-batch SGD中的batch是加快训练,同时保持一定的噪声。但设置不同的batchsize的权重的梯度是怎么计算的呢。
设置运行实验(二),可以看到结果如下:所以单卡batchsize计算梯度是取均值的
tensor([[[ 3., 3.],…… torch.Size([2, 2, 2])实验(一):
多gpu情况下,梯度怎么合并在一起的。
在《training imagenet in 1 hours》中提到grad是allreduce的,是累加的形式。但是当设置g=2,实验一运行时,结果也是取均值的,类同于实验(二)
tensor([[[ 3., 3.],…… torch.Size([2, 2, 2])实验代码
import torchimport torch.nn as nnfrom torch.autograd import Variableclass model(nn.Module): def __init__(self, w): super(model, self).__init__() self.w = w def forward(self, xx): b, c, _, _ = xx.shape # extra = xx.device.index + 1 ## 实验(一) y = xx.reshape(b, -1).mm(self.w.cuda(xx.device).reshape(-1, 2) * extra) return y.reshape(len(xx), -1)g = 1x = Variable(torch.ones(2, 1, 2, 2))# x[1] += 1 ## 实验(二)w = Variable(torch.ones(2, 2, 2) * 2, requires_grad=True)# optim = torch.optim.SGD({'params': x},lr = 0.01momentum = 0.9M = model(w)M = torch.nn.DataParallel(M, device_ids=range(g))for i in range(3): b = len(x) z = M(x) zz = z.sum(1) l = (zz - Variable(torch.ones(b).cuda())).mean() # zz.backward(Variable(torch.ones(b).cuda())) l.backward() print(w.grad, w.grad.shape) # w.grad.zero_() ## 实验(三) print(i, b, '* * ' * 20)以上这篇对pytorch中的梯度更新方法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
Windows8系统更新有很多方法,这里主要给大家介绍两种界面更新方法。(很详细的图文介绍)1.首先介绍正常更新方法,在桌面计算机图标点右键属性或者鼠标移至右上
有些时候我们需要同时更新多个表中的数据那么就需要用到下面方法了:(1)sqlite多表更新方法复制代码代码如下://----------------------
本文实例讲述了Yii2.0实现的批量更新及批量插入功能。分享给大家供大家参考,具体如下:批量更新方法1/***批量更新循环周期*@paramarray$cond
今天笔者继史上最全域名快速收录、最全外链方法、最全网站降权原因后来为大家分享一篇最全的网页快照天天更新方法。众所周知网页快照更新的快对加快网页收录、交换友情链接
12月25日消息Windows10的下一个大更新计划于2020年发布,将采用一种安装驱动程序的新方法。在Windows10Build19536的更新日志中,微软