时间:2021-05-22
先粘贴一段official guide:nn.conv1d官方
我一开始被in_channels、out_channels卡住了很久,结果发现就和conv2d是一毛一样的。话不多说,先粘代码(菜鸡的自我修养)
class CNN1d(nn.Module): def __init__(self): super(CNN1d,self).__init__() self.layer1 = nn.Sequential( nn.Conv1d(1,100,2), nn.BatchNorm1d(100), nn.ReLU(), nn.MaxPool1d(8)) self.layer2 = nn.Sequential( nn.Conv1d(100,50,2), nn.BatchNorm1d(50), nn.ReLU(), nn.MaxPool1d(8)) self.fc = nn.Linear(300,6) def forward(self,x): #input.shape:(16,1,425) out = self.layer1(x) out = out.view(out.size(0),-1) out = self.fc(out) return out输入的数据格式是(batch_size,word_vector,sequence_length),我设置的batch=16,特征工程样本是1x425,套用该格式就应该是(16,1,425)。对应nn.Conv1d的in_channels=1,out_channels就是你自己设置的,我选择的是100。
因为我做的是分类场景,所以做完两次一维卷积后还要加上一个线性层。
以上这篇pytorch中nn.Conv1d的用法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
先看Pytorch中的卷积classtorch.nn.Conv2d(in_channels,out_channels,kernel_size,stride=1,
卷积在pytorch中有两种实现,一种是torch.nn.Conv2d(),一种是torch.nn.functional.conv2d(),这两种方式本质都是执
pytorch中的2D卷积层和2D反卷积层函数分别如下:classtorch.nn.Conv2d(in_channels,out_channels,kernel
我就废话不多说了,直接上代码吧!conv1=nn.Conv2d(1,2,kernel_size=3,padding=1)conv2=nn.Conv2d(1,2,
Conv2d的简单使用torch包nn中Conv2d的用法与tensorflow中类似,但不完全一样。在torch中,Conv2d有几个基本的参数,分别是in_