1
sigmoid_cross_entropy_logits、softmax_cross_entropy_logitsのようなテンソルフローには多くの損失関数があります。これらの関数の数式を書いてください。そして、ロジットとは何ですか?それはthis機能を指していますか?そして、それは要素賢明に適用されますか?テンソルフロー損失機能?
sigmoid_cross_entropy_logits、softmax_cross_entropy_logitsのようなテンソルフローには多くの損失関数があります。これらの関数の数式を書いてください。そして、ロジットとは何ですか?それはthis機能を指していますか?そして、それは要素賢明に適用されますか?テンソルフロー損失機能?
この例を参照してください。
# tf.nn.softmax computes softmax activations
# softmax = exp(logits)/reduce_sum(exp(logits), dim)
logits = tf.matmul(X, W) + b
hypothesis = tf.nn.softmax(logits)
# Cross entropy cost/loss
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits,
labels=Y_one_hot))
ロジットが(ソフトマックスの前に)お使いのモデルから出力されます。完全な例はhttps://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-06-2-softmax_zoo_classifier.pyです。
シグモイドクロスエントロピーの記述式は、次のドキュメントにあります。https://www.tensorflow.org/versions/r0.10/api_docs/python/nn.html#sigmoid_cross_entropy_with_logits –