时间:2021-05-23
1.保存变量
先创建(在tf.Session()之前)saver
saver = tf.train.Saver(tf.global_variables(),max_to_keep=1) #max_to_keep这个保证只保存最后一次training的训练数据然后在训练的循环里面
checkpoint_path = os.path.join(Path, 'model.ckpt') saver.save(session, checkpoint_path, global_step=step) #这里的step是循环训练的次数,也就是第几次迭代
以下保存的变量文件
2.变量读取
1.若要直接恢复所有变量可以
saver = tf.train.Saver(tf.global_variables())moudke_file=tf.train.latest_checkpoint('PATH')saver.restore(sess,moudke_file)PATH是存放保存变量的路径,会自动找到最近保存的变量文件
2 若想读取其中一部分变量值
def read_checkpoint(): w = [] checkpoint_path = '/home/ximao/models/resnet3/variable_logs/model.ckpt-17000' reader = tf.train.NewCheckpointReader(checkpoint_path) var = reader.get_variable_to_shape_map() for key in var: if 'weights' in key and 'conv' in key and 'Mo' not in key: print('tensorname:', key) # # print(reader.get_tensor(key))3. 若想恢复其中一部分变量值到新网络
(1)首先你要先获取你想要赋值新网络变量的变量名,这里变量名不是一个字符串,而是<name,shape,dtype>这样的一个结构,
然后把你要赋值的元素转为张量,最后把值赋给你得到变量名 如下:
var=[v for v in weight_pruned if v.op.name=='WRN/conv1/weights']conv1_temp=tf.convert_to_tensor(conv1,dtype=tf.float32)sess.run(tf.assign(var[0],conv1_temp))weight_pruned 存放的是你新网络中所有的变量
以上这篇tensorflow实现训练变量checkpoint的保存与读取就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
从tensorflow训练后保存的模型中打印训变量:使用tf.train.NewCheckpointReader()importtensorflowastfre
TensorFlow模型保存/载入我们在上线使用一个算法模型的时候,首先必须将已经训练好的模型保存下来。tensorflow保存模型的方式与sklearn不太一
tensorflow官方提供了3种方法来读取数据:预加载数据(preloadeddata):在TensorFlow图中定义常量或变量来保存所有的数据,适用于数据
一,直接保存pb1,首先我们当然可以直接在tensorflow训练中直接保存为pb为格式,保存pb的好处就是使用场景是实现创建模型与使用模型的解耦,使得创建模型
tensorflow中如果要对神经网络模型进行训练,需要把训练数据转换为tfrecord格式才能被读取,tensorflow的model文件里直接提供了相应的脚