时间:2021-05-22
创建一个NN
import tensorflow as tf
import numpy as np
1.使用save对模型进行保存
sess= tf.Session()sess.run(tf.global_variables_initializer()) #initialize var in graphsaver = tf.train.Saver() # define a saver for saving and restoringfor step in range(100): #train sess.run(train_op,{tf_x:x, tf_y:y})saver.save(sess, 'params/params.ckpt', write_meta_graph=False) # mate_graph is not recommend生成三个文件,分别是checkpoint,.ckpt.data-00000-of-00001,.ckpt.index
2.使用restore对提取模型
在提取模型时,需要将模型结构再定义一遍,再将各参数加载出来
#bulid entire net again and restoretf_x = tf.placeholder(tf.float32, x.shape)tf_y = tf.placeholder(tf.float32, y.shape)l_ = tf.layers.dense(tf_x, 10, tf.nn.relu)o_ = tf.layers.dense(l_, 1)loss_ = tf.losses.mean_squared_error(tf_y, o_) sess = tf.Session()# don't need to initialize variables, just restoring trained variablessaver = tf.train.Saver() # define a saver for saving and restoringsaver.restore(sess, './params/params.ckpt')3.有时会报错Not found:b1 not found in checkpoint
这时我们想知道我在文件中到底保存了什么内容,即需要读取出checkpoint中的tensor
import osfrom tensorflow.python import pywrap_tensorflowcheckpoint_path = os.path.join('params','params.ckpt')# Read data from checkpoint filereader = pywrap_tensorflow.NewCheckpointReader(checkpoint_path)var_to_shape_map = reader.get_variable_to_shape_map()# Print tensor name and valuef = open('params.txt','w')for key in var_to_shape_map: # write tensors' names and values in file print(key,file=f) print(reader.get_tensor(key),file=f)f.close()运行后生成一个params.txt文件,在其中可以看到模型的参数。
补充知识:TensorFlow按时间保存检查点
一 实例
介绍一种更简便地保存检查点功能的方法——tf.train.MonitoredTrainingSession函数,该函数可以直接实现保存及载入检查点模型的文件。
演示使用MonitoredTrainingSession函数来自动管理检查点文件。
二 代码
import tensorflow as tftf.reset_default_graph()global_step = tf.train.get_or_create_global_step()step = tf.assign_add(global_step, 1)with tf.train.MonitoredTrainingSession(checkpoint_dir='log/checkpoints',save_checkpoint_secs = 2) as sess: print(sess.run([global_step])) while not sess.should_stop(): i = sess.run( step) print( i)三 运行结果
1 第一次运行后,会发现log文件夹下产生如下文件
2 第二次运行后,结果如下:
INFO:tensorflow:Create CheckpointSaverHook.
INFO:tensorflow:Restoring parameters from log/checkpoints\model.ckpt-15147
INFO:tensorflow:Saving checkpoints for 15147 into log/checkpoints\model.ckpt.
[15147]
15148
15149
15150
15151
15152
15153
15154
15155
15156
15157
15158
15159
四 说明
本例是按照训练时间来保存的。通过指定save_checkpoint_secs参数的具体秒数,来设置每训练多久保存一次检查点。
可见程序自动载入检查点是从第15147次开始运行的。
五 注意
1 如果不设置save_checkpoint_secs参数,默认的保存时间是10分钟,这种按照时间保存的模式更适合用于使用大型数据集来训练复杂模型的情况。
2 使用该方法,必须要定义global_step变量,否则会报错误。
以上这篇tensorflow模型的save与restore,及checkpoint中读取变量方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
在训练循环中,定期调用saver.save()方法,向文件夹中写入包含了当前模型中所有可训练变量的checkpoint文件。saver.save(sess,FL
使用tensorflow训练模型时,我们可以使用tensorflow自带的Save模块tf.train.Saver()来保存模型,使用方式很简单就是在训练完模型
查看TensorFlow中checkpoint内变量的几种方法查看ckpt中变量的方法有三种:在有model的情况下,使用tf.train.Saver进行res
方式1:静态获取,通过直接解析checkpoint文件获取变量名及变量值通过reader=tf.train.NewCheckpointReader(model_
tensorflow模型保存为saver=tf.train.Saver()函数,saver.save()保存模型,代码如下:importtensorflowas