0
Torch、nnに実装されているニューラルネットワークを見るたびに、モジュール同士を接続するだけです。たとえば、LookupTable、Splittable、FasLSTM、Linear、LogSoftMaxを持つシーケンサモジュールがあります。 tanh/Sigmoid/ReLuのように、間に活性化機能を使用しないのはなぜですか?Torch-なぜ人々は活性化を明示的に使用しないのですか?
Torch、nnに実装されているニューラルネットワークを見るたびに、モジュール同士を接続するだけです。たとえば、LookupTable、Splittable、FasLSTM、Linear、LogSoftMaxを持つシーケンサモジュールがあります。 tanh/Sigmoid/ReLuのように、間に活性化機能を使用しないのはなぜですか?Torch-なぜ人々は活性化を明示的に使用しないのですか?
例がありますか?通常、ReLuまたはTanHはレイヤー間で使用されます。
パラメータを持つ '実際の'ニューラルネットワーク層ではないため、テーブル操作関数などの間では使用しません。