时间:2021-05-22
1、代码如下:
import numpy as npfrom keras.models import Sequentialfrom keras.layers import Dense, Activation,Reshapefrom keras.layers import mergefrom keras.utils.visualize_util import plotfrom keras.layers import Input, Lambdafrom keras.models import Model def slice(x,index): return x[:,:,index] a = Input(shape=(4,2))x1 = Lambda(slice,output_shape=(4,1),arguments={'index':0})(a)x2 = Lambda(slice,output_shape=(4,1),arguments={'index':1})(a)x1 = Reshape((4,1,1))(x1)x2 = Reshape((4,1,1))(x2)output = merge([x1,x2],mode='concat')model = Model(a, output)x_test = np.array([[[1,2],[2,3],[3,4],[4,5]]])print model.predict(x_test)plot(model, to_file='lambda.png',show_shapes=True)2、注意Lambda 是可以进行参数传递的,传递的方式如下代码所述:
def slice(x,index):
return x[:,:,index]
如上,index是参数,通过字典将参数传递进去.
x1 = Lambda(slice,output_shape=(4,1),arguments={'index':0})(a)
x2 = Lambda(slice,output_shape=(4,1),arguments={'index':1})(a)
3、上述代码实现的是,将矩阵的每一列提取出来,然后单独进行操作,最后在拼在一起。可视化的图如下所示。
补充知识:tf.keras.layers.Lambda()——匿名函数层解析
1. 参数列表
2. 作用
可以把任意的一个表达式作为一个“Layer”对象
Lambda层之所以存在是因为它可以在构建Squential时使用任意的函数或者说tensorflow 函数。
在我们需要完成一些简单的操作(例如VAE中的重采样)的情况下,Lambda层再适合不过了。
3. 举个栗子(VAE)
可以看到通过在encoder和decoder中间加入一个Lambda层使得encoder和decoder连接起来,很方便
def sampling(agrs): mean,logvar = agrs[0],agrs[1] eps = tf.random.normal(tf.shape(mean)) return mean + eps*tf.exp(logvar * 0.5)# 编码阶段 x = layers.Input(shape=(784,)) # 输入层 h1 = layers.Dense(200,activation='softplus')(x)h2 = layers.Dense(200,activation='softplus')(h1)# 均值和方差层不需要激活函数mean = layers.Dense(latent_dimension)(h2)log_var = layers.Dense(latent_dimension)(h2) # 将采样过程看成一个Lambda层,这里利用自定义的sampling函数z = layers.Lambda(sampling,output_shape=(latent_dimension,))([mean,log_var]) # 解码阶段h3 = layers.Dense(200,activation='softplus')h4 = layers.Dense(200,activation='softplus')h5 = layers.Dense(200,activation='softplus')# No activationend = layers.Dense(784)z1 = h3(z)z2 = h4(z1)z3 = h5(z2)out = end(z3) # 建立模型model = tf.keras.Model(x,out)4. Lambda层的缺点
Lambda层虽然很好用,但是它不能去更新我们模型的配置信息,就是不能重写'model.get_config()'方法
所以tensorflow提议,尽量使用自定义层(即tf.keras.layers的子类)
关于自定义层,我的博客有一期会专门讲
总结
当网络需要完成一些简单的操作时,可以考虑使用Lambda层。
以上这篇keras Lambda自定义层实现数据的切片方式,Lambda传参数就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
使用keras时,加入keras的lambda层以实现自己定义的操作。但是,发现操作结果的shape信息有问题。我的后端是theano,使用了sum操作。比如输
目录mapfilterreducezipsortedmapmap其中,function参数表示要传入一个函数,其可以是内置函数、自定义函数或者lambda匿名函
keras许多简单操作,都需要新建一个层,使用Lambda可以很好完成需求。#额外参数defnormal_reshape(x,shape):returnK.re
参数paginate(每页数量,是否简洁分页,分页参数)使用方式$list=db('user')->paginate(10);自定义参数传参$list=db('
在Keras中可以自定义损失函数,在自定义损失函数的过程中需要注意的一点是,损失函数的参数形式,这一点在Keras中是固定的,须如下形式:defmy_loss(