cross-entropy

    2

    1答えて

    多分誰かが私をここで助けることができます。私は、ネットワークの所与の出力 print output Variable containing: 1.00000e-02 * -2.2739 2.9964 -7.8353 7.4667 4.6921 0.1391 0.6118 5.2227 6.2540 -7.3584 [torch.FloatTensor of size 1x10] 、

    0

    1答えて

    は私のコードです: import tensorflow as tf with tf.Session() as sess: y = tf.constant([0,0,1]) x = tf.constant([0,1,0]) r = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y, logit

    1

    1答えて

    ソースコードtf.nn.softmax_cross_entropy_with_logitsがgen_nn_opsであるため、ソフトマックスの後のテンソルフローがクロスエントロピーをどのように計算するかは誰にも分かりません。ソフトマックスの後では、クロスエントロピーでNaN問題を引き起こす精度のため、0を出力する可能性があります。テンソルフローは、softmaxが出力をバインドするときにクリップメソ

    -1

    1答えて

    1に足りないラベルを渡すことができるテンソルフローの組み込みが見つかりませんでした。したがって、自分自身で作成しようとしました:(入力は[batch_size、labels]) tf.reduce_mean(tf.reduce_sum(y_true,axis=1) * tf.reduce_logsumexp(y_pred_logits,axis=1) - tf.reduce_sum(y_true

    0

    1答えて

    マルチラベル分類問題のCNNがあり、損失関数としてtf.nn.sigmoid_cross_entropy_with_logitsを使用しています。 cross entropy equationから、出力は各クラスの確率であると予想されますが、代わりに(-∞、∞)の浮動小数点数が得られます。 私はいくつかの内部正常化操作のために、ロジットの各行が確率として解釈されてから方程式に供給されることを発見し

    1

    1答えて

    TensorFlowを使用してマルチラベル分類を実装しようとしています(つまり、各出力パターンには多くのアクティブユニットがあります)。この問題は、クラスの不均衡(ラベル分布を非常に疎らにするラベル分布のものよりはるかにゼロ)を有する。 問題に取り組む最も良い方法は、tf.nn.weighted_cross_entropy_with_logits機能を使用することです。しかし、私はこのランタイムエ

    4

    1答えて

    私はニューラルネットワークを学習しています。私は関数cross_entropyをpythonで書いています。それは Nはサンプルの数である 、kと定義されるクラスの数、logは自然対数であり、試料iが他クラスjと0であればt_i,jは1でありますp_i,jは、サンプルiがクラスjにある予測された確率です。 対数の数値問題を回避するには、予測値を[10^{−12}, 1 − 10^{−12}]の範囲