2つの異なるネットワークの訓練損失を同時に訓練する方法はありますか?TensorBoard - 2つのネットワークからのプロット損失が同じグラフ上で同時に訓練された
writer_cnn = tf.summary.FileWriter(os.path.join('log', 'cnn'))
writer_dann = tf.summary.FileWriter(os.path.join('log', 'dann'))
s_loss_cnn = tf.summary.scalar('loss_class', loss_class_cnn)
s_loss_dann = tf.summary.scalar('loss_class', loss_class_dann)
以降のコードで:私は2 FileWriter
を使用し、二つの異なるディレクトリに要約を保存する瞬間
s_cnn = sess.run(s_loss_cnn, feed_dict=feed_batch)
s_dann = sess.run(s_loss_dann, feed_dict=feed_batch)
writer_cnn.add_summary(s_cnn, global_step)
writer_dann.add_summary(s_dann, global_step)
しかし、私はTensorBoardを発射するとき、私は別の2を取得グラフloss_class
およびloss_class_1
。私はhereとthereのような別の場所で2つのディレクトリを作成する方法を読んだことがあります。何か不足していますか?
引用した例では、_same_ lossは2つの異なるディレクトリに書き込まれます。ここでは、あなたは_two different_損失を持っています。 – user1735003
@ user1735003どのように私は同じプロットでそれらの2つの異なる損失をプロットすることができますか? – Leo
https://github.com/tensorflow/tensorflow/issues/7089#issuecomment-280506195には方法が記載されていますが、少し脆いようです。 – user1735003