pytorch方法测试详解——归一化(BatchNorm2d)

时间:2021-05-22

测试代码:

import torchimport torch.nn as nnm = nn.BatchNorm2d(2,affine=True) #权重w和偏重将被使用input = torch.randn(1,2,3,4)output = m(input)print("输入图片:")print(input)print("归一化权重:")print(m.weight)print("归一化的偏重:")print(m.bias)print("归一化的输出:")print(output)print("输出的尺度:")print(output.size())# i = torch.randn(1,1,2)print("输入的第一个维度:")print(input[0][0])firstDimenMean = torch.Tensor.mean(input[0][0])firstDimenVar= torch.Tensor.var(input[0][0],False) #Bessel's Correction贝塞尔校正不会被使用print(m.eps)print("输入的第一个维度平均值:")print(firstDimenMean)print("输入的第一个维度方差:")print(firstDimenVar)bacthnormone = \ ((input[0][0][0][0] - firstDimenMean)/(torch.pow(firstDimenVar+m.eps,0.5) ))\ * m.weight[0] + m.bias[0]print(bacthnormone)

输出为:

输入图片:

tensor([[[[-2.4308, -1.0281, -1.1322, 0.9819], [-0.4069, 0.7973, 1.6296, 1.6797], [ 0.2802, -0.8285, 2.0101, 0.1286]], [[-0.5740, 0.1970, -0.7209, -0.7231], [-0.1489, 0.4993, 0.4159, 1.4238], [ 0.0334, -0.6333, 0.1308, -0.2180]]]])

归一化权重:

Parameter containing:tensor([ 0.5653, 0.0322])

归一化的偏重:

Parameter containing:tensor([ 0., 0.])

归一化的输出:

tensor([[[[-1.1237, -0.5106, -0.5561, 0.3679], [-0.2391, 0.2873, 0.6510, 0.6729], [ 0.0612, -0.4233, 0.8173, -0.0050]], [[-0.0293, 0.0120, -0.0372, -0.0373], [-0.0066, 0.0282, 0.0237, 0.0777], [ 0.0032, -0.0325, 0.0084, -0.0103]]]])

输出的尺度:

torch.Size([1, 2, 3, 4])

输入的第一个维度:

tensor([[-2.4308, -1.0281, -1.1322, 0.9819], [-0.4069, 0.7973, 1.6296, 1.6797], [ 0.2802, -0.8285, 2.0101, 0.1286]])1e-05

输入的第一个维度平均值:

tensor(0.1401)

输入的第一个维度方差:

tensor(1.6730)tensor(-1.1237)

结论:

输出的计算公式如下

注意torch中方差实现的方法是没有使用Bessel's correction 贝塞尔校正的方差,所以在自己写的方差中不要用错了。(贝塞尔校正,即样本方差和总体方差之间区别和校正。)

以上这篇pytorch方法测试详解——归一化(BatchNorm2d)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章