TensorFlowは、同じ計算(サブ)グラフへの複数の呼び出しを含む の計算を自動的にキャッシュできますか?Tensorは、キャッシュ(サブ)グラフの計算をフローできますか?
例えば、私は行列F
を持っており、各エントリは、訓練可能な変数W
に基づく の計算を表しています。私の目的関数 は、この行列にさまざまなベクトルを数回乗算します(それぞれ 時間は変更されずにWです)。
にアクセスするたびに、TensorFlowはたとえばF[1,2]
を再計算しますか、それともその値をキャッシュしますか?
は理論的には、一方が行列固定W
は、F
内の各エントリはtf.constant
であるように、所与のF
を事前計算できました。しかし、 は、W
の勾配の正しい計算を妨げます。
この質問は関連しているようです:http://stackoverflow.com/questions/34536340/how-to-use-tensorflow-optimizer-without-recomputing-activations-in-reinforcement –