2016-09-04 14 views

答えて

0

あなたはこのようセーバーオブジェクトを定義することができます。

saver = tf.train.Saver(max_to_keep=5, keep_checkpoint_every_n_hours=1) 

をこの場合、セーバーは、最新の5つのチェックポイントを維持するように構成され、また、トレーニング中にチェックポイントごとに時間を維持します。

セーバーは、次のような呼び出しでメイントレーニングループで定期的に呼び出すことができます。

sess=tf.Session() 

    ... 

    # Save the model every 100 iterations 
    if step % 100 == 0: 
     saver.save(sess, "./model", global_step=step) 

この例では、100個のトレーニングステップごとにチェックポイントを./modelサブディレクトリに保存しています。オプションのパラメータglobal_stepは、この値をチェックポイントのファイル名に付加します。

モデルの重みと他の値は、次のことで、追加のトレーニングや推論のために、後で復元することができる。

 saver.restore(sess, path.model_checkpoint_path) 

他の有用な変種とさまざまなオプションがあります。それらについて学習を開始するのに適した場所は、変数の作成、保存、検索に関するTFハウツーです。here

関連する問題