Keras Convolution1D与Convolution2D区别说明

时间:2021-05-22

以下是Convolution1D的例子:

from keras.layers import Convolution1Dfrom keras.models import Sequential model=Sequential()model.add(Convolution1D( filters=64, #64个滤波器 -》生成 64深度 kernel_size=3, #长度 为 3 input_shape=(10,32), # 输入形状 就是 图片形状 (step,input_dim) input_dim 一般指词_dim padding='same' # 过滤模式))#Output Shape:(None, 10, 64) model.add(Convolution1D( filters=32, kernel_size=3, padding='same'))#Output Shape:(None, 10, 32)

以下是Convolution2D的例子:

from keras.layers import Convolution2Dfrom keras.models import Sequential model=Sequential()model.add(Convolution2D( filters=64, # 64个滤波器 -》生成 64深度 kernel_size=3, # 滤波器窗口 大小(3,3) padding='same', # 过滤模式 input_shape=(256,256,3), # 输入形状 就是 图片形状 # 默认 data_format:channels_last (rows,cols,channels)))#Output Shape:(None, 256, 256, 64) model.add(Convolution2D( filters=32, kernel_size=3, padding='same', # 过滤模式 ))#Output Shape:(None, 256, 256, 32)1.Convolution1D主要用于nlp,Convolution2D主要用于cv。实际上,Convolution1D也可以用于cv,Convolution2D也可以用于nlp,只是那个时候不是标准的卷积方式,而是经过一定变形的卷积。2.可以看到Convolution1D的 只有3这一个参数,Convolution2D 却有两个参数3(即长度为3,宽度为3的卷积窗口)。表面上Convolution1D没有给出卷积的大小,Convolution2D给出了。实际上,在Convolution1D中,长度 为 句子 所有 word 的长度,宽度就是 句子中word的 dim (全称:dimension) ,宽度自动把整个tensor的宽度包裹住。3.Convolution1D的input_shape是 ( 长度为10,宽度为32 )的tensor。Convolution2D的input_shape是 ( 宽度为256,长度为256,3个channel ) 的tensor。

下面画出大概的区别:

补充知识:对于keras.layers.Conv1D的kernel_size参数的理解

今天在用keras添加卷积层的时候,发现了kernel_size这个参数不知怎么理解,keras中文文档是这样描述的:

kernel_size: 一个整数,或者单个整数表示的元组或列表, 指明 1D 卷积窗口的长度。

又经过多方查找,大体理解如下:

因为是添加一维卷积层Conv1D(),一维卷积一般会处理时序数据,所以,卷积核的宽度为1,而kernel_size就是卷积核的长度了,这样的意思就是这个卷积核是一个长方形的卷积核。

以上这篇Keras Convolution1D与Convolution2D区别说明就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章