これがtf.losses.softmax_cross_entropy_loss
の戻り値であれば、どういう意味ですか?softmaxクロスエントロピー戻り値
<tf.Tensor 'softmax_cross_entropy_loss/value:0' shape=() dtype=float32>
状態value:0
の意味とshape=()
は何も計算されなかったことを意味している事実をしていますか?
これがtf.losses.softmax_cross_entropy_loss
の戻り値であれば、どういう意味ですか?softmaxクロスエントロピー戻り値
<tf.Tensor 'softmax_cross_entropy_loss/value:0' shape=() dtype=float32>
状態value:0
の意味とshape=()
は何も計算されなかったことを意味している事実をしていますか?
データが通過する前にグラフにテンソルを表示しているため、何も計算されていません。さんは
sce = tf.losses.softmax_cross_entropy_loss(input)
はその後、実際feed_dictは、あなたのデータのための辞書です
sess = tf.Session()
...
loss = sess.run(sce, feed_dict)
を使用して、あなたがそれにデータを供給する必要が損失値を取得するとしましょう。損失は実際の数値損失額を返します。
value
は、値が属する計算グループの指標に過ぎません。たとえば、tf.reduce_mean
は平均計算であるためtf.Tensor 'Mean_1:0' shape=() dtype=float32
を返します。 0は、現在の値が0であることを意味するものではなく、単に索引付けに使用されます。
さらに、テンソル形状は()
です。単一ロス値にはバッチサイズ、xまたはy方向、またはチャンネル(4Dテンソルで作業していると仮定)がないため、テンソルの形状は()
です。