2017-07-28 4 views
0

Tensorflows tf.losses.compute_weighted_lossを使用したいが、良い例は見つからない。私は複数クラスの分類問題を持ち、tf.nn.sigmoid_cross_entropy_with_logitsを損失として使います。今度は、各ラベルのエラーを個別に評価したいと思います。 n個のラベルがあるとしましょう。つまり、n個のサイズの重みベクトルが必要です。残念ながら、tfはエラー重みの(b、n)の形をした行列を渡すことを期待しています。ここでbはバッチサイズです。だから、基本的に私はウェイトベクトルをb回繰り返す必要があります。バッチサイズが固定であれば問題ありませんが、バッチサイズが可変であれば(たとえば、データセットの最後に小さなバッチなど)、私は適応する必要があります。これを回避する方法はありますか?Tensorflow compute_weighted_loss例

+0

ネヴァーマインド。放送を可能にするためにベクトルを(n、)から(1、n)に変更するだけでした。 – nadre

答えて

0

私はちょうど放送を可能にするために(1、n)とする(nは、)からベクトルを再構築する必要がありました:

error_weights = error_weights.reshape(1, error_weights.shape[0]) 
関連する問題