2017-10-06 9 views
1

分類子ネットワークの非表示レイヤーは、非線形性を導入してデータを正規化するためにシグモイドまたは別のアクティベーション関数を使用しますが、最後のレイヤーではsoftmaxと組み合わせてシグモイドを使用しますか?クラシファイアニューラルネットワークの最後のレイヤーは、シグモイドとソフトマックスの両方を使用していますか?

私はそれが重要ではなく、ネットワークはどちらの方法でも訓練されると感じていますが、softmaxレイヤーだけを使用する必要がありますか?またはシグモイド関数を最初に適用する必要がありますか?

答えて

1

一般に、softmax出力レイヤーの直前に追加のシグモイドアクティベーションが発生することはありません。シグモイド関数はa partial case of softmaxなので、値を[0, 1]区間に2回連続してスカッシュすると、ほぼ均一な出力分布になります。もちろん、これを伝播することはできますが、それはずっと効率が悪いでしょう。

ところで、あなたがReLuを使用しないことを選択した場合、tanhは必ずS字形よりa better activation functionです。

+0

ありがとうございます!あなたは分類器でtanh対sigmoidについてさらに読むことができるリソースに私を案内できますか?私はそれらが前に非常に匹敵すると述べたのを見ました。 –

+0

@EvanWeissburg確かに、この投稿をお勧めします。http://cs231n.github.io/neural-networks-1/#actfun – Maxim

関連する問題