テンソルフローを使用しており、tf.saver()
メソッドを使用して、いくつかのモデルをトレーニングし、各エポック後に保存しています。私はモデルを保存してロードすることができ、通常の方法でこれをやっています。Tensorflow、チェックポイントファイルがありません。セーバーはチェックポイントを5つだけ保持できますか?
with tf.Graph().as_default(), tf.Session() as session:
initialiser = tf.random_normal_initializer(config.mean, config.std)
with tf.variable_scope("model",reuse=None, initializer=initialiser):
m = a2p(session, config, training=True)
saver = tf.train.Saver()
ckpt = tf.train.get_checkpoint_state(model_dir)
if ckpt and tf.gfile.Exists(ckpt.model_checkpoint_path)
saver.restore(session, ckpt.model_checkpoint_path)
...
for i in range(epochs):
runepoch()
save_path = saver.save(session, '%s.ckpt'%i)
私のコードは、それに応じてラベル付けされるべき各エポックのためにモデルを保存するように設定されています。しかし、私は15回の訓練の後に、最後の5つのエポック(10,11,12,13,14)のチェックポイントファイルしか持っていないことに気付きました。ドキュメンテーションはこれについて何も言わないので、私はなぜそれが起こっているのか迷っています。
セーバーは5つのチェックポイントを保持できるだけですか、何か間違っていますか?
すべてのチェックポイントが保持されていることを確認する方法はありますか?
5はデフォルトで、私はほとんどの場合、好む「keep_checkpoint_every_n_hours」引数もありセーバーコンストラクタ –