2016-09-12 4 views
1

私はneural networks and deep learningのchap1を読んだことがあります。「手書き数字を分類する簡単なネットワーク」(ctrl-fで検索できます)、私は良い問題を見つけました。「なぜ4つではなく出力層に10のニューロンを使うべきなのですか?ニューロン?4桁のニューロンの代わりに、出力層に10個のニューロンを使用する理由は何ですか?

4つのニューロンでは、各ニューロンの値は0または1であり、2^4 = 16> 10となります。なぜ、出力層に4つのニューロンを使用しないのですか?

答えて

5

各出力ニューロンは1桁の責任を負います。出力ニューロンi(合計10個のニューロン)は、入力数字がiである確率[0,1)を返します。この方法では、(2^4の例のように)ビットとして使用すると、単一の出力ではなく、各桁の確率の分布を知ることができます。

+0

あなたの返信に感謝します:) –

+0

@serhiybは正しいです。可能なすべてのクラスのロジットを計算することで、相互エントロピー損失を使用することができます。これは、信頼度に比例してミスをペナルティを課します。 (すなわち、信頼性の高い誤分類は、誤った分類よりも信頼度が低いため、損失がより大きくなる)。このモデル性能の尺度は、精度よりも優れている。 – vin

関連する問題