时间:2021-05-23
首先,在pytorch中的view()函数就是用来改变tensor的形状的,例如将2行3列的tensor变为1行6列,其中-1表示会自适应的调整剩余的维度
a = torch.Tensor(2,3)print(a)# tensor([[0.0000, 0.0000, 0.0000],# [0.0000, 0.0000, 0.0000]]) print(a.view(1,-1))# tensor([[0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000]])在CNN中卷积或者池化之后需要连接全连接层,所以需要把多维度的tensor展平成一维,x.view(x.size(0), -1)就实现的这个功能
def forward(self,x): x=self.pre(x) x=self.layer1(x) x=self.layer2(x) x=self.layer3(x) x=self.layer4(x) x=F.avg_pool2d(x,7) x=x.view(x.size(0),-1) return self.fc(x)卷积或者池化之后的tensor的维度为(batchsize,channels,x,y),其中x.size(0)指batchsize的值,最后通过x.view(x.size(0), -1)将tensor的结构转换为了(batchsize, channels*x*y),即将(channels,x,y)拉直,然后就可以和fc层连接了
补充:pytorch中view的用法(重构张量)
view在pytorch中是用来改变张量的shape的,简单又好用。
pytorch中view的用法通常是直接在张量名后用.view调用,然后放入自己想要的shape。如
tensor_name.view(shape)Example:
(直接填-1表示拉直, 等价于tensor_name.flatten())
>>> y = x.view(-1) >>> y.size() torch.Size([16])注意最后的False,在张量b和c是不等价的。从这里我们可以看得出来,view函数如其名,只改变“看起来”的样子,不会改变张量在内存中的排列。
以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
python求定积分计算fromsympyimport*x=symbols('x')print(integrate(sin(2*x)/(1+x**2),(x,0
Untitled1.style1{font-size:x-small;}/**画点*/functionmakedot(x,y){pointDiv="";retu
直接上代码了x=np.empty(shape=[0,4],int)x=np.append(x,[[1,2,3,4]],axis=0)x=np.append(x,
暴库名\表名\列名unionselectunhex(hex(concat(0x1e,0x1e,table_schema,0x1e,tab
复制代码代码如下:functionaddCommas(nStr){nStr+='';x=nStr.split('.');x1=x[0];x2=x.length>