2017-09-19 5 views
0

私は、共同で訓練されたワイドリニアモデルと深部フィードフォワードニューラルネットワークを構築するためにTensorflowのtf.estimator APIを使用しています。訓練されたモデルはディスクに保存され、予測は保存されたモデルを復元することによって行われます。 リアルタイム予測は、非常に遅いすべての呼び出しでモデルをリロードするtf.estimator APIの予測関数を使用して行います。モデルがリロードされないようにするメカニズムはありますか?連続した呼び出しのためにモデルをメモリに保持していますか?tf.contrib.learn.estimator predict()の各呼び出しはモデルを再ロードします

+0

私はまた、あなたができることにはいくつかの解決策を見つけるために、同じ問題、で立ち往生しています動作しているようですしませんか? –

答えて

関連する問題