2016-08-05 24 views
1

sigmoid_cross_entropy_logits、softmax_cross_entropy_logitsのようなテンソルフローには多くの損失関数があります。これらの関数の数式を書いてください。そして、ロジットとは何ですか?それはthis機能を指していますか?そして、それは要素賢明に適用されますか?テンソルフロー損失機能?

+0

シグモイドクロスエントロピーの記述式は、次のドキュメントにあります。https://www.tensorflow.org/versions/r0.10/api_docs/python/nn.html#sigmoid_cross_entropy_with_logits –

答えて

0

この例を参照してください。

# tf.nn.softmax computes softmax activations 
# softmax = exp(logits)/reduce_sum(exp(logits), dim) 
logits = tf.matmul(X, W) + b 
hypothesis = tf.nn.softmax(logits) 

# Cross entropy cost/loss 
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, 
              labels=Y_one_hot)) 

ロジットが(ソフトマックスの前に)お使いのモデルから出力されます。完全な例はhttps://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-06-2-softmax_zoo_classifier.pyです。