tensorflow实现训练变量checkpoint的保存与读取

Jenna ·
更新时间:2024-11-14
· 506 次阅读

1.保存变量

先创建(在tf.Session()之前)saver

saver = tf.train.Saver(tf.global_variables(),max_to_keep=1) #max_to_keep这个保证只保存最后一次training的训练数据

然后在训练的循环里面

checkpoint_path = os.path.join(Path, 'model.ckpt') saver.save(session, checkpoint_path, global_step=step) #这里的step是循环训练的次数,也就是第几次迭代

以下保存的变量文件

2.变量读取

1.若要直接恢复所有变量可以

saver = tf.train.Saver(tf.global_variables()) moudke_file=tf.train.latest_checkpoint('PATH') saver.restore(sess,moudke_file)

PATH是存放保存变量的路径,会自动找到最近保存的变量文件

2 若想读取其中一部分变量值

def read_checkpoint(): w = [] checkpoint_path = '/home/ximao/models/resnet3/variable_logs/model.ckpt-17000' reader = tf.train.NewCheckpointReader(checkpoint_path) var = reader.get_variable_to_shape_map() for key in var: if 'weights' in key and 'conv' in key and 'Mo' not in key: print('tensorname:', key) # # print(reader.get_tensor(key))

3. 若想恢复其中一部分变量值到新网络

(1)首先你要先获取你想要赋值新网络变量的变量名,这里变量名不是一个字符串,而是<name,shape,dtype>这样的一个结构,

然后把你要赋值的元素转为张量,最后把值赋给你得到变量名 如下:

var=[v for v in weight_pruned if v.op.name=='WRN/conv1/weights'] conv1_temp=tf.convert_to_tensor(conv1,dtype=tf.float32) sess.run(tf.assign(var[0],conv1_temp))

weight_pruned 存放的是你新网络中所有的变量

以上这篇tensorflow实现训练变量checkpoint的保存与读取就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软件开发网。

您可能感兴趣的文章:Tensorflow训练MNIST手写数字识别模型Tensorflow训练模型越来越慢的2种解决方案TensorFlow实现保存训练模型为pd文件并恢复解决TensorFlow训练内存不断增长,进程被杀死问题tensorflow获取预训练模型某层参数并赋值到当前网络指定层方式tensorflow模型继续训练 fineturn实例tensorflow如何继续训练之前保存的模型实例Tensorflow实现在训练好的模型上进行测试tensorflow保持每次训练结果一致的简单实现



checkpoint 训练 tensorflow

需要 登录 后方可回复, 如果你还没有账号请 注册新账号
相关文章