时间:2021-05-22
一、name_scope
with tf.name_scope(name):
name_scope: 为了更好地管理变量的命名空间而提出的。比如在 tensorboard 中,因为引入了 name_scope, 我们的 Graph 看起来才井然有序。
name_scope 对 get_variable 创建变量的 name 没有影响,即 get_variable 创建的变量不在 name_scope 这个命名空间中
二、variable_scope
with tf.variable_scope(name_or_scope, reuse=None):
variable_scope: 大部分情况下,跟 tf.get_variable() 配合使用,实现变量共享的功能
可通过tf.get_variable_scope().reuse == True/False 判断参变量是否共享
当前变量作用域可以用tf.get_variable_scope()进行检索并且reuse 标签可以通过调用tf.get_variable_scope().reuse_variables()设置为True
三、共享参变量
1、方法
使用 tf.Variable() 创建同一个 name 的变量(操作名不同),均不会报错,但系统会自动修改 name(实质还是不让共享参变量)
使用 tf.get_varible() 创建同一个 name 的变量(操作名不同),均会报错(为了避免无意识的参变量复用造成的错误)
我们可以在 variable_scope 中使用 tf.get_variable() 创建变量,并通过 with tf.variable_scope(name_or_scope, reuse=True) 来共享参变量:
reuse=True:将只能获取命名空间中已经创建过的变量,如果变量不存在,则tf.get_variable函数将报错。
reuse=None / False:tf.get_variable操作将创建新的变量,如果同名的变量已经存在,则tf.get_variable函数将报错。
2、代码示例
# 下面是定义一个卷积层的通用方式def conv_relu(input, kernel_shape, bias_shape): # Create variable named "weights". weights = tf.get_variable("weights", kernel_shape, initializer=tf.random_normal_initializer()) # Create variable named "biases". biases = tf.get_variable("biases", bias_shape, initializer=tf.constant_intializer(0.0)) conv = tf.nn.conv2d(input, weights, strides=[1, 1, 1, 1], padding='SAME') return tf.nn.relu(conv + biases)# 定义一个图片过滤器def my_image_filter(input_images): with tf.variable_scope("conv1"): # Variables created here will be named "conv1/weights", "conv1/biases". relu1 = conv_relu(input_images, [5, 5, 32, 32], [32]) with tf.variable_scope("conv2"): # Variables created here will be named "conv2/weights", "conv2/biases". return conv_relu(relu1, [5, 5, 32, 32], [32])# 实验一:调用 my_image_filter() 两次result1 = my_image_filter(image1)result2 = my_image_filter(image2)>>> Raises ValueError(... conv1/weights already exists ...), tf.get_variable()会检测已经存在的变量是否已经共享# 解决方法一, 可以在设计网络时加上一个布尔型的 reuse 参数 with tf.variable_scope("image_filters"): result1 = my_image_filter(image1)with tf.variable_scope("image_filters", reuse=True): result2 = my_image_filter(image2)# 解决方法二with tf.variable_scope("image_filters") as scope: # 下面我们两次调用 my_image_filter 函数,但是由于引入了变量共享机制 # 可以看到我们只是创建了一遍网络结构。 result1 = my_image_filter(image1) scope.reuse_variables() result2 = my_image_filter(image2)# 解决方法三with tf.variable_scope("image_filters") as scope: result1 = my_image_filter(image1)with tf.variable_scope(scope, reuse=True): result2 = my_image_filter(image2)# 打印出所有的可训练参变量vs = tf.trainable_variables()print('There are %d trainable_variables in the Graph: ' % len(vs))for v in vs: print(v)# 输出结果证明确实:参变量共享,因为只有四个变量,没有创建新的变量。There are 4 trainable_variables in the Graph: Tensor("image_filters/conv1/weights/read:0", shape=(5, 5, 32, 32), dtype=float32)Tensor("image_filters/conv1/biases/read:0", shape=(32,), dtype=float32)Tensor("image_filters/conv2/weights/read:0", shape=(5, 5, 32, 32), dtype=float32)Tensor("image_filters/conv2/biases/read:0", shape=(32,), dtype=float32)四、取出所有可训练参数
# Returns all variables created with trainable=True in a var_listvar_list = tf.trainable_variables()init = tf.global_variables_initializer()sess.run(init)for var in var_list: sess.run(var)以上这篇TensorFLow 变量命名空间实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
js中常常定义一个函数用做临时的命名空间,在这个命名空间内定义的变量都不会污染到全局命名空间(防止局部变量与全局变量冲突)。复制代码代码如下:functionm
1基本概念1.1命名空间(namespace)命名空间是变量名到对象的映射(name->obj)。目前大多数的命名空间以类似于python字典的形式实现,实现形
本文实例讲述了PHP命名空间namespace的定义方法。分享给大家供大家参考,具体如下:定义命名空间对于空间的命名,在此我想不用文字解释,更好的解释是用实例来
为了避免变量之间的覆盖与冲突,可以生成命名空间,命名空间是一种特殊的前缀,在js中,通过{}对象实现。在不同的匿名函数中,根据功能声明一个不同的命名空间,每个匿
本文实例为大家分享了tensorflow实现弹性网络回归算法,供大家参考,具体内容如下python代码:#用tensorflow实现弹性网络算法(多变量)#使用