私が構築しているテンソルフローモデルで簡単なRNNの再活性化を使用したいと思います。深い畳み込みネットワークの上に位置します。私は一連の画像を分類しようとしています。私は、kerasとtensorflowソースコードの両方のデフォルトの有効化が単純なRNNのtanhであることに気付きました。これには理由がありますか? reluの使用に何か問題はありますか? reluが消えていく勾配でうまくいくように思える。テンソルフローとケラスSimpleRNNレイヤーのデフォルト活性化がtanh
nn = tf.nn.rnn_cell.BasicRNNCell(1024, activation = tf.nn.relu)
なぜ私はLSTMに最適なのか理解していますが、シーケンスは長さが6であるため、SimpleRNNを使用しています。 – chasep255