私は入力をエンコードするためにRNNを使用する複雑なニューラルネットワークアーキテクチャを訓練しています。ReLuよりSigmoidアクティベーションを使用する方が良い場合がありますか
私は現在、深いニューラルネットワークの部分(ユニットの数と隠れた層の数)を最適化しています。
現在、すべてのレイヤーでシグモイド活性化を使用しています。これはいくつかの隠れたレイヤーでは問題ないようですが、レイヤーの数が増えるにつれて、シグモイドは最良の選択ではないようです。
最初にSigmoidのためのハイパーパラメータの最適化を行う必要があると思いますか、ReLuを使うか、ReLuを直接使うのが良いですか?
また、Relaxを最初の隠れ層に、最後の隠し層のみをSigmoidにすると、softmax出力があると考えられますか?
ありがとうございました。実際、私は自分の検索にパーティクル群最適化を使用しています。私はちょうど検索スペースを絞り込むためにいくつかの直感を望んでいた。 – ryuzakinho