在训练循环中,定期调用 saver.save() 方法,向文件夹中写入包含了当前模型中所有可训练变量的 checkpoint 文件。

saver.save(sess, FLAGS.train_dir, global_step=step)

global_step是训练的第几步

保存参数:

import tensorflow as tf
 
W = tf.Variable([[1, 2, 3]], dtype=tf.float32)
b = tf.Variable([[1]], dtype=tf.float32)
 
saver = tf.train.Saver()
 
sess = tf.InteractiveSession()
tf.global_variables_initializer().run()
# 必须要指定文件夹,保存到ckpt文件
save_path = saver.save(sess, "winycg/1.ckpt")
print(save_path)

一次 saver.save() 后可以在文件夹中看到新增的四个文件,实际上每调用一次保存操作会创建后3个数据文件并创建一个检查点(checkpoint)文件,简单理解就是权重等参数被保存到 .chkp.data 文件中,以字典的形式;图和元数据被保存到 .chkp.meta 文件中,可以被 tf.train.import_meta_graph 加载到当前默认的图。

TensorFlow利用saver保存和提取参数的实例

读取参数:

import tensorflow as tf
import numpy as np
 
W = tf.Variable(np.arange(3).reshape(1, 3), dtype=tf.float32)
b = tf.Variable(np.arange(1).reshape(1, 1), dtype=tf.float32)
 
saver = tf.train.Saver()
 
sess = tf.InteractiveSession()
# 读取参数时不需要global_variables_initializer()
save_path = saver.restore(sess, "parameter/1.ckpt")
print("weights:", sess.run(W))
print("bias:", sess.run(b))

weights: [[ 1. 2. 3.]]

bias: [[ 1.]]

以上这篇TensorFlow利用saver保存和提取参数的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

华山资源网 Design By www.eoogi.com
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
华山资源网 Design By www.eoogi.com

RTX 5090要首发 性能要翻倍!三星展示GDDR7显存

三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。

首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。

据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。