2017-01-30 7 views
0

TensorBoard tutorialtrain_writertest_writerのようなことをしたいと思います。しかし、tf.train.Supervisorを使用します。私はしかし、これについて最善の方法を行くのか分からない。TensorBoardの `tf.train.Supervisor`で複数のサマリーライターを使う方法

擬似コード:

train_op = #... 
train_summaries = # ... 
test_summaries = # ... 

config = tf.ConfigProto(allow_soft_placement=True) 
sv = tf.train.Supervisor(
    logdir    = ????, 
    summary_op   = ????, 
    summary_writer  = ????, 
) 
with sv.managed_session(config=config) as sess: 
    while not sv.should_stop(): 
     sess.run(train_op) 

だから私の質問は次のとおりです。私はtrain_summariestest_summariesは異なるディレクトリを行う方法を保存しますか?など。 ./logdir/trainおよび./logdir/test/

答えて

0

あなたはsummary_computedを探しています。ドキュメントストリングは、カスタムサマリーライターを作成する方法を示しています。スーパーバイザに自動的に管理させることはできませんが、非常に簡単です。 〜からhttps://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/training/supervisor.py

# Create a Supervisor with no automatic summaries. 
sv = Supervisor(logdir='/tmp/mydir', is_chief=is_chief, summary_op=None) 
# As summary_op was None, managed_session() does not start the 
# summary thread. 
with sv.managed_session(FLAGS.master) as sess: 
    for step in xrange(1000000): 
    if sv.should_stop(): 
     break 
    if is_chief and step % 100 == 0: 
     # Create the summary every 100 chief steps. 
     sv.summary_computed(sess, sess.run(my_summary_op)) 
    else: 
     # Train normally 
     sess.run(my_train_op) 
関連する問題