时间:2021-05-22
由于研究关系需要自己手动给卷积层初始化权值,但是好像博客上提到的相关文章比较少(大部分都只提到使用nn.init里的按照一定分布初始化方法),自己参考了下Pytorch的官方文档,发现有两种方法吧。
所以mark下。
import torchimport torch.nn as nnimport torch.optim as optimimport numpy as np# 第一一个卷积层,我们可以看到它的权值是随机初始化的w=torch.nn.Conv2d(2,2,3,padding=1)print(w.weight)# 第一种方法print("1.使用另一个Conv层的权值")q=torch.nn.Conv2d(2,2,3,padding=1) # 假设q代表一个训练好的卷积层print(q.weight) # 可以看到q的权重和w是不同的w.weight=q.weight # 把一个Conv层的权重赋值给另一个Conv层print(w.weight)# 第二种方法print("2.使用来自Tensor的权值")ones=torch.Tensor(np.ones([2,2,3,3])) # 先创建一个自定义权值的Tensor,这里为了方便将所有权值设为1w.weight=torch.nn.Parameter(ones) # 把Tensor的值作为权值赋值给Conv层,这里需要先转为torch.nn.Parameter类型,否则将报错print(w.weight)效果预览
以上这篇Pytorch卷积层手动初始化权值的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
pytorch中的权值初始化官方论坛对weight-initilzation的讨论torch.nn.Module.apply(fn)torch.nn.Modul
在常见的pytorch代码中,我们见到的初始化方式都是调用init类对每层所有参数进行初始化。但是,有时我们有些特殊需求,比如用某一层的权重取优化其它层,或者手
初始化类,结构和枚举当Swift声明后准备初始化类实例。初始值被初始化为存储属性,并且新的实例的值也被进一步进行初始化。创建初始化函数的关键字是通过init()
Java中数组初始化和OC其实是一样的,分为动态初始化和静态初始化,动态初始化:指定长度,由系统给出初始化值静态初始化:给出初始化值,由系统给出长度在我们使用数
权重初始化对于训练神经网络至关重要,好的初始化权重可以有效的避免梯度消失等问题的发生。在pytorch的使用过程中有几种权重初始化的方法供大家参考。注意:第一种