时间:2021-05-22
任务要求:
自定义一个层主要是定义该层的实现函数,只需要重载Function的forward和backward函数即可,如下:
import torchfrom torch.autograd import Functionfrom torch.autograd import Variable定义二值化函数
class BinarizedF(Function): def forward(self, input): self.save_for_backward(input) a = torch.ones_like(input) b = -torch.ones_like(input) output = torch.where(input>=0,a,b) return output def backward(self, output_grad): input, = self.saved_tensors input_abs = torch.abs(input) ones = torch.ones_like(input) zeros = torch.zeros_like(input) input_grad = torch.where(input_abs<=1,ones, zeros) return input_grad定义一个module
class BinarizedModule(nn.Module): def __init__(self): super(BinarizedModule, self).__init__() self.BF = BinarizedF() def forward(self,input): print(input.shape) output =self.BF(input) return output进行测试
a = Variable(torch.randn(4,480,640), requires_grad=True)output = BinarizedModule()(a)output.backward(torch.ones(a.size()))print(a)print(a.grad)其中, 二值化函数部分也可以按照方式写,但是速度慢了0.05s
class BinarizedF(Function): def forward(self, input): self.save_for_backward(input) output = torch.ones_like(input) output[input<0] = -1 return output def backward(self, output_grad): input, = self.saved_tensors input_grad = output_grad.clone() input_abs = torch.abs(input) input_grad[input_abs>1] = 0 return input_grad以上这篇pytorch自定义二值化网络层方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
当我们导入的模型含有自定义层或者自定义函数时,需要使用custom_objects来指定目标层或目标函数。例如:我的一个模型含有自定义层“SincConv1D”
前言:前面几篇讲了自定义控件绘制原理Android自定义控件基本原理详解(一),Android自定义控件之自定义属性(二),Android自定义控件之自定义组合
提供两种方式的分类树格式,表格和下拉框形式的树形结构可以自定义表格和下拉框的样式,自定义以哪一列的参数为格式化数据,自定义层级关系参数,自定义表格列名称,也可以
前言:前两篇介绍了自定义控件的基础原理Android自定义控件基本原理详解(一)、Android自定义控件之自定义属性(二)。今天重点介绍一下如何通过自定义组合
自定义数据集在训练深度学习模型之前,样本集的制作非常重要。在pytorch中,提供了一些接口和类,方便我们定义自己的数据集合,下面完整的试验自定义样本集的整个流