时间:2021-05-22
今天在用keras添加卷积层的时候,发现了kernel_size这个参数不知怎么理解,keras中文文档是这样描述的:
kernel_size: 一个整数,或者单个整数表示的元组或列表, 指明 1D 卷积窗口的长度。
又经过多方查找,大体理解如下:
因为是添加一维卷积层Conv1D(),一维卷积一般会处理时序数据,所以,卷积核的宽度为1,而kernel_size就是卷积核的长度了,这样的意思就是这个卷积核是一个长方形的卷积核。
补充知识:tf.layers.conv1d函数解析(一维卷积)
一维卷积一般用于处理文本,所以输入一般是一段长文本,就是词的列表
函数定义如下:
tf.layers.conv1d(inputs,filters,kernel_size,strides=1,padding='valid',data_format='channels_last',dilation_rate=1,activation=None,use_bias=True,kernel_initializer=None,bias_initializer=tf.zeros_initializer(),kernel_regularizer=None,bias_regularizer=None,activity_regularizer=None,kernel_constraint=None,bias_constraint=None,trainable=True,name=None,reuse=None)比较重要的几个参数是inputs, filters, kernel_size,下面分别说明
inputs : 输入tensor, 维度(None, a, b) 是一个三维的tensor
None : 一般是填充样本的个数,batch_size
a : 句子中的词数或者字数
b :字或者词的向量维度
filters : 过滤器的个数
kernel_size : 卷积核的大小,卷积核其实应该是一个二维的,这里只需要指定一维,是因为卷积核的第二维与输入的词向量维度是一致的,因为对于句子而言,卷积的移动方向只能是沿着词的方向,即只能在列维度移动
一个例子:
inputs = tf.placeholder('float', shape=[None, 6, 8])
out = tf.layers.conv1d(inputs, 5, 3)
说明: 对于一个样本而言,句子长度为6个字,字向量的维度为8
filters=5, kernel_size=3, 所以卷积核的维度为3*8
那么输入6*8经过3*8的卷积核卷积后得到的是4*1的一个向量(4=6-3+1)
又因为有5个过滤器,所以是得到5个4*1的向量
画图如下:
以上这篇关于keras.layers.Conv1D的kernel_size参数使用介绍就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
1.当设置group=1时:conv=nn.Conv2d(in_channels=6,out_channels=6,kernel_size=1,groups=1
我就废话不多说了,直接上代码吧!conv1=nn.Conv2d(1,2,kernel_size=3,padding=1)conv2=nn.Conv2d(1,2,
先看Pytorch中的卷积classtorch.nn.Conv2d(in_channels,out_channels,kernel_size,stride=1,
在二维矩阵间的运算:classtorch.nn.Conv2d(in_channels,out_channels,kernel_size,stride=1,pad
卷积层创建卷积层首先导入keras中的模块fromkeras.layersimportConv2D卷积层的格式及参数:Conv2D(filters,kernel