0
、私が行うことができます。テンソルフローのセッションごとに損失を動的に計算できますか? tensorflowで
optimizer = tf.train.AdamOptimizer()
with tf.Session() as sess:
for i in batch_loop:
batch_input, batch_label = getBatchData()
batch_output = sess.run(output, feed_dict={input: batch_input})
# calculate the loss based on the batch_output and batch_label
loss = getLoss(batch_output, batch_label)
grads_and_vars = optimizer.compute_gradients(loss)
opt_operation = optimizer.apply_gradients(grads_and_vars)
sess.run(opt_operation)
は、我々はこれらのような何かを行うことができますか?私は実際の出力が得られるまで損失関数をあらかじめ定義することはできません。
お返事ありがとうございます。という事は承知しています。しかし、私の問題は、私の損失機能は、batch_outputの本当の価値に大きく基づいているということです。したがって、損失関数を事前に定義することは非常に困難です。 batch_outputの実際の値を取得し、batch_outputとbatch_labelに基づいて損失を計算します。これは、値を浮動させる定数テンソルを与え、オプティマイザでapply_gradientsを適用しますか? – user426546