0
私は多少大きなモデルを持っていますが、小さなバッチサイズのGPUでしか練習できませんが、もっと大きなバッチサイズを使用する必要があります、Nより小さいバッチにバッチを分割「iter_size」オプションを介してこの問題に対するいい解決策を提供する蓄積nは勾配方法この缶一旦1つのバッチを複数の呼び出しに分割してメモリを節約する方法
を更新カフェ
)、これは最終的な精度と収束時間を改善知りますTensorFlowで効率的に実装できますか?
コード?これは実際にははるかに関与しているようです – ASDen