0
私はこの方法でそれをやったこの
link
から各エポックの終わりに私のモデルを保存したい
:
割引:
for ep_num in range(num_epochs):
model_dir = "{0}/epoch_{1}/".format(train_dir, epoch_num)
model_meta_file_name = [each for each in
os.listdir(model_dir) if each.endswith('.meta')][0]
meta_path="{0}/{1}".format(model_dir, model_meta_file_name)
saver = tf.train.import_meta_graph(meta_path)
saver.restore(sess, tf.train.latest_checkpoint(model_dir))
をしてて、私のモデルを評価し続ける:
model_dir = "{0}/epoch_{1}/res".format(train_dir, epoch_num)
saver.save(sess, model_dir, global_step=global_step_val)
復元評価データ。
しかし、私の評価プロセスは非常に遅くなる、私は いくつかの余分なものを節約していると思うし、いくつかのエポックの後に私のグラフは非常に 大きいです。これをどうすれば解決できますか?
ワンポイント:GPU使用率はほぼゼロ。この評価の間 process.Iは、いくつかのエポックの後に何らかの理由であちこちに考えている、私のプロセスは GPU
@ Siyuan Ren したがって、複数のメタグラフを保存する必要はありませんか? –