以下是Convolution1D的例子:
from keras.layers import Convolution1D from keras.models import Sequential model=Sequential() model.add(Convolution1D( filters=64, #64个滤波器 -》生成 64深度 kernel_size=3, #长度 为 3 input_shape=(10,32), # 输入形状 就是 图片形状 (step,input_dim) input_dim 一般指词_dim padding='same' # 过滤模式 )) #Output Shape:(None, 10, 64) model.add(Convolution1D( filters=32, kernel_size=3, padding='same' )) #Output Shape:(None, 10, 32)
以下是Convolution2D的例子:
from keras.layers import Convolution2D from keras.models import Sequential model=Sequential() model.add(Convolution2D( filters=64, # 64个滤波器 -》生成 64深度 kernel_size=3, # 滤波器窗口 大小(3,3) padding='same', # 过滤模式 input_shape=(256,256,3), # 输入形状 就是 图片形状 # 默认 data_format:channels_last (rows,cols,channels) )) #Output Shape:(None, 256, 256, 64) model.add(Convolution2D( filters=32, kernel_size=3, padding='same', # 过滤模式 )) #Output Shape:(None, 256, 256, 32) 1.Convolution1D主要用于nlp,Convolution2D主要用于cv。实际上,Convolution1D也可以用于cv,Convolution2D也可以用于nlp,只是那个时候不是标准的卷积方式,而是经过一定变形的卷积。 2.可以看到Convolution1D的 只有3这一个参数,Convolution2D 却有两个参数3(即长度为3,宽度为3的卷积窗口)。表面上Convolution1D没有给出卷积的大小,Convolution2D给出了。实际上,在Convolution1D中,长度 为 句子 所有 word 的长度,宽度就是 句子中word的 dim (全称:dimension) ,宽度自动把整个tensor的宽度包裹住。 3.Convolution1D的input_shape是 ( 长度为10,宽度为32 )的tensor。Convolution2D的input_shape是 ( 宽度为256,长度为256,3个channel ) 的tensor。
下面画出大概的区别:
补充知识:对于keras.layers.Conv1D的kernel_size参数的理解
今天在用keras添加卷积层的时候,发现了kernel_size这个参数不知怎么理解,keras中文文档是这样描述的:
kernel_size: 一个整数,或者单个整数表示的元组或列表, 指明 1D 卷积窗口的长度。
又经过多方查找,大体理解如下:
因为是添加一维卷积层Conv1D(),一维卷积一般会处理时序数据,所以,卷积核的宽度为1,而kernel_size就是卷积核的长度了,这样的意思就是这个卷积核是一个长方形的卷积核。
以上这篇Keras Convolution1D与Convolution2D区别说明就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。