とloss
の違いは何ですか?私は、前者がレコード数で割った後者であるという名前から推測しましたが、そうではありません。後者は前者の約3〜4倍である。テンソルフロー推定値:平均損失対損失
1
A
答えて
2
average_loss
とloss
の違いは、他は同一の損失オーバーMEAN
を低減しながら一つは、バッチ損失上SUM
を減少させることです。したがって、比率はinput_fn
のちょうどbatch_size
引数です。 batch_size=1
に合格すると、それらは等しいと見なされます。
training_loss = losses.compute_weighted_loss(unweighted_loss, weights=weights,
reduction=losses.Reduction.SUM)
mean_loss = metrics_lib.mean(unweighted_loss, weights=weights)
あなたが見ることができるように、彼らはから計算されています
実際には、(tf.DNNRegressor
に対応)回帰ヘッドのためのテンソルがtf.Estimator
の特定の種類に依存するが、彼らは非常に似ている、here's the source code報告しました同じunweighted_loss
およびweights
テンソル。同じ値がテンソルボードサマリーに報告されます。
1
実際の比率はちょうど4.0
で、これはバッチサイズに相当します。
ネットワークをトレーニングするときは、通常、入力をバッチとしてフィードします。
exampleでは、バッチサイズは4
であるため、ロスはバッチ全体の損失の合計ですが、平均損失はバッチ全体の損失の平均です。
関連する問題
- 1. Tensorflowオプティマイザ:損失合計対平均値
- 2. テンソルフロー損失機能?
- 3. ケラス平均二乗誤差損失層
- 4. テンソルフロー損失最小化タイプエラー
- 5. pytorch損失値は、
- 6. テンソルフローとシグモイドクロスエントロピー損失との比較
- 7. 非独立クラスのテンソルフロー損失
- 8. 損失または無損失分解
- 9. NALユニット損失ソフトウェア、パケット損失、ビデオ
- 10. NNの電車損失、有効損失、電車/電車平均とは何ですか?
- 11. カフェ損失層、平均および精度
- 12. 損失
- 13. 損失
- 14. 損失/ clone_0/softmax_cross_entropy_lossと損失/ clone_0/aux_loss /値の差
- 15. 欠損値を持つExcel平均
- 16. R - 推定欠損値
- 17. Tensorflowニューラルネットワークの損失値NaN
- 18. はテンソルフローの損失関数を定義しましたか?
- 19. Redisデータ損失
- 20. カフェシグモイドクロスエントロピー損失
- 21. ケラスクロスエントロピー損失
- 22. データ損失オブジェクト
- 23. 認証損失
- 24. Fink:KafkaProducerデータ損失
- 25. 減少総損失
- 26. 接続損失MQTT
- 27. ケラスラムダレイヤー(カスタム損失用)
- 28. 精度の損失
- 29. json_decodeデータの損失
- 30. keras:スムースL1損失