2
TensorFlowでは、画像があるとします。同じ畳み込みカーネルを複数回適用したいとします。例えば、私は次のような何かをしたいと思います:TensorFlowで畳み込みRNNを実装する方法は?
for i in range(5):
output = tf.nn.relu(tf.nn.bias_add(tf.nn.conv2d(output, weights, [1,1,1,1]), bias))
しかし、これは非常に迅速に、私は多くのループを持っている場合は、メモリが不足します。これは、システムがシーケンス全体を一度に保持するのに十分なメモリを割り当てているためです。
これを行う代替方法は何ですか?
ありがとうございます!次のように
GPUでこれを実行していますか?もしそうなら、どのGPUを実行していますか?また、入力画像の大きさはどれくらいですか?勾配を得るために伝搬を戻すことができるように、シーケンスを周りに保つことが必要です。 – keveman
ご返信ありがとうございます。私はGPU、12GBのタイタンXでそれを実行しています。入力画像は1024x512ですが、私はこれを試すことができます。グラデーションのバックプロパゲーションのためにシーケンスを維持する必要があることは、まさに正しいことです。したがって、これは実際には正しい方法であると考えていますか? – Carl
確かに。あなたのアプローチは大丈夫です。メモリが不足している場合は、実行しようとしている時間とステップの数をピングバックしてください。 – keveman