「RNNを動的に展開する」とはどういう意味ですか?私はこれをTensorflowのソースコードで具体的に言及しているのを見ましたが、私は一般的にRNNに及ぶ概念的な説明を探しています。 tensorflow rnn
方法においてRNNを動的に展開することは何を意味しますか?
、それが文書化されている:
sequence_length
ベクターが提供されている場合、動的計算を行う あります。この計算方法は、RNNがminibatchの最大シーケンス長(これ 計算時間を節約する)、
過ぎしかし、それは言及dynamic_rnn
方法で のステップ計算しない:
パラメータを
sequence_length
は省略可能であり、バッチ要素の シーケンス長を過ぎたときに、コピースルー状態とゼロ出力を に使用します。したがって、パフォーマンスよりも正確さは、rnn()
とは異なり、 です。
rnn
は、可変長配列に対してより性能が良いのですか? dynamic_rnn
とrnn
の概念の違いは何ですか?
+1また、 'dynamic_rnn'が非動的なものよりも近似を導入しているかどうかを知りたいと思います。言い換えれば、学問の場面では、例えば、 'BasicLSTMCell' +' dynamic_rnn'は参照LSTMと同じように実行するか、または考慮すべきトレードオフはありますか? – Drop