时间:2021-05-22
使用keras时,加入keras的lambda层以实现自己定义的操作。但是,发现操作结果的shape信息有问题。
我的后端是theano,使用了sum操作。
比如输入时,shape为(32,28,28),其中32为batch大小。
此时对应的ndim应该等于3。
但是,lambda处理后结果显示_keras_shape为(32,28,28),而ndim却是2。
这导致后边各项操作都会出现问题。
此处sum函数加入参数keepdims=True即可。
此注意keras中的各种层几乎都不用去理会batch的大小,系统会自动在shape中加入None占位,所以很多参数也不用加入batch的大小。但是进行sum等操作时,选择按照哪个axis进行操作,要考虑batch的存在。
补充知识:keras Merge or merge
在使用keras merge层时,发现有Merge 、merge两种:
from keras.layers import Merge
from keras.layers import merge
使用第一种是报错
“TensorVariable object has no attribute 'get_output_shape_at' ”
使用第二种小写即可。
以上这篇解决keras加入lambda层时shape的问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
keras许多简单操作,都需要新建一个层,使用Lambda可以很好完成需求。#额外参数defnormal_reshape(x,shape):returnK.re
keras根据层名称来初始化网络defget_model(input_shape1=[75,75,3],input_shape2=[1],weights=Non
问题描述我在用Keras的Embedding层做nlp相关的实现时,发现了一个神奇的问题,先上代码:a=Input(shape=[15])#None*15b=I
多分类损失函数label.shape:[batch_size];pred.shape:[batch_size,num_classes]使用tf.keras.lo
【题目】keras中的Merge层(实现层的相加、相减、相乘)详情请参考:Merge层一、层相加keras.layers.Add()添加输入列表的图层。该层接收