时间:2021-05-23
Conv2d的简单使用
torch 包 nn 中 Conv2d 的用法与 tensorflow 中类似,但不完全一样。
在 torch 中,Conv2d 有几个基本的参数,分别是
in_channels 输入图像的深度
out_channels 输出图像的深度
kernel_size 卷积核大小,正方形卷积只为单个数字
stride 卷积步长,默认为1
padding 卷积是否造成尺寸丢失,1为不丢失
与tensorflow不一样的是,pytorch中的使用更加清晰化,我们可以使用这种方法定义输入与输出图像的深度并同时指定使用的卷积核的大小。
而我们的输入则由经由 Conv2d 定义的参数传入,如下所示:
# 定义一个输入深度为1,输出为6,卷积核大小为 3*3 的 conv1 变量self.conv1 = nn.Conv2d(1, 6, 3)# 传入原始输入x,以获得长宽与x相当,深度为6的卷积部分x = self.conv1(x)要注意的是,Conv2d中所需要的输入顺序为
batchsize, nChannels, Height, Width
其他的简单使用
同样的,与 Conv2d 类似的函数还有很多,类似 max_pool2d、relu等等,他们的使用方法与 Conv2d 极为类似,如下所示:
# relu函数的使用F.relu(self.conv1(x))# 池化函数的使用F.max_pool2d(F.relu(self.conv2(x)), 2)以上这篇pytorch1.0中torch.nn.Conv2d用法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
卷积在pytorch中有两种实现,一种是torch.nn.Conv2d(),一种是torch.nn.functional.conv2d(),这两种方式本质都是执
一卷积操作:在pytorch搭建起网络时,大家通常都使用已有的框架进行训练,在网络中使用最多就是卷积操作,最熟悉不过的就是torch.nn.Conv2d(in_
先看Pytorch中的卷积classtorch.nn.Conv2d(in_channels,out_channels,kernel_size,stride=1,
pytorch中的2D卷积层和2D反卷积层函数分别如下:classtorch.nn.Conv2d(in_channels,out_channels,kernel
我就废话不多说了,直接上代码吧!conv1=nn.Conv2d(1,2,kernel_size=3,padding=1)conv2=nn.Conv2d(1,2,