2017-11-14 14 views
0

、私が行うことができます。テンソルフローのセッションごとに損失を動的に計算できますか? tensorflowで

optimizer = tf.train.AdamOptimizer() 
with tf.Session() as sess: 
    for i in batch_loop: 
     batch_input, batch_label = getBatchData() 
     batch_output = sess.run(output, feed_dict={input: batch_input}) 

     # calculate the loss based on the batch_output and batch_label 
     loss = getLoss(batch_output, batch_label) 
     grads_and_vars = optimizer.compute_gradients(loss) 
     opt_operation = optimizer.apply_gradients(grads_and_vars) 
     sess.run(opt_operation) 

は、我々はこれらのような何かを行うことができますか?私は実際の出力が得られるまで損失関数をあらかじめ定義することはできません。

答えて

0

tf.placeholderを使用して損失関数を事前に定義し、実際の出力がbatch_outputbatch_labelのときに入力することができます。
詳細については、tf.placeholder

+0

お返事ありがとうございます。という事は承知しています。しかし、私の問題は、私の損失機能は、batch_outputの本当の価値に大きく基づいているということです。したがって、損失関数を事前に定義することは非常に困難です。 batch_outputの実際の値を取得し、batch_outputとbatch_labelに基づいて損失を計算します。これは、値を浮動させる定数テンソルを与え、オプティマイザでapply_gradientsを適用しますか? – user426546

関連する問題