hereのように、クロスエントロピーはマルチラベル分類のための適切な損失関数ではありません。私の質問は、「この事実はsoftmaxとのクロスエントロピーにも当てはまりますか?」です。そうであれば、文書のthis partとどのように一致させることができますか。は、マルチラベル分類にSoftmaxを適用したクロスエントロピーですか?
私の質問の範囲はcntkです。
hereのように、クロスエントロピーはマルチラベル分類のための適切な損失関数ではありません。私の質問は、「この事実はsoftmaxとのクロスエントロピーにも当てはまりますか?」です。そうであれば、文書のthis partとどのように一致させることができますか。は、マルチラベル分類にSoftmaxを適用したクロスエントロピーですか?
私の質問の範囲はcntkです。
マルチラベル分類は、通常、「多くのバイナリラベル」を意味します。その定義を念頭に置いて、ソフトマックスによるクロスエントロピーはマルチラベル分類には適していません。 2番目のリンクの文書では、マルチラベルの問題ではなく、マルチクラスの問題について説明しています。ソフトマックスによるクロスエントロピーはマルチクラス分類に適しています。マルチラベル分類では、各ラベルのバイナリクロスエントロピーの合計を使用するのが一般的です。バイナリクロスエントロピーは、BrainscriptでLogistic
、またはPythonでbinary_cross_entropy
で計算できます。
一方、多くのマルチラベルラベルに問題がある場合は、それぞれにcross_entropy_with_softmaxを使用すると、CNTKはこれらの損失値をすべて自動的に合計します。
リンクされたドキュメントのタイトルは「マルチラベル分類子を訓練する」ので、「マルチラベル問題ではないマルチクル問題について話すためにリンクするドキュメント」とはどのように述べましたか? – OmG
質問に2つのリンクがあります。私はもう1つを参照していました。これを明確にするための答えを更新しました。 –