-1
私は、TensorFlowの高レベルマシンラーニングAPI(tf.contrib.learn)を使用してTensorFlowモデルを構築しました。このモデルをLinux/Unixサービスとして実行する必要があります。または、モデルを実行可能ファイルとしてエクスポートします。これは可能ですか?もしそうなら、私はどうすればいいのですか?TensorFlowモデルをLinux/Unixサービスとして実行できますか?
何か助けていただければ幸いです。
予測応答を300ミリ秒(理想的には100ミリ秒)以内に必要とするので、私のサーバーから訓練されたモデルを予測する必要があります。これは、別のサーバー(TensorFlowサーバー)上のモデルを呼び出すと、 。どのように達成することができますか? – Vasanti
ローカルマシン上でも引き続きRPCを実行できます。それは10msを超えてはならない。それ以外の場合は、[C API](https://github.com/tensorflow/tensorflow/blob/master/tensorflow/c/c_api.h)を使用できます。 – drpng
ローカルマシンから10秒以内にRPC呼び出しを行うにはどうすればよいですか?現在、私はTensorFlow Servingを設定し、訓練されたモデルをエクスポートしたUbuntuシステムを持っています。しかし、私が保存されたモデルの予測をしているとき、予測を行い、それをコンソールに表示するのに約2〜3分かかります。 – Vasanti