2016-11-30 4 views
0

現在、テンソルフローを使用して、訓練された "textsum"モデルを提供しようとしています。私はTF 0.11を使用していますが、読んだ後、エクスポートされたファイルckptckpt.metaファイルを自動的に作成するように見えます。Tensorflow Serving - ベースパスの下でサービス可能な<model>のバージョンが見つかりません

textsum/log_rootディレクトリの下に、複数のファイルがあります。一方はモデル.ckpt-230381であり、他方はモデル.ckpt-230381.metaである。

これは、私が提供するモデルをセットアップしようとするときに指摘できるはずの場所であると私は理解しています。

> I tensorflow/stream_executor/dso_loader.cc:111] successfully opened 
> CUDA library libcublas.so locally I 
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA 
> library libcudnn.so locally I 
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA 
> library libcufft.so locally I 
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA 
> library libcuda.so.1 locally I 
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA 
> library libcurand.so locally seq2seq/output_projection/w (DT_FLOAT) 
> [256,335906] seq2seq/output_projection/v (DT_FLOAT) [335906] 
> seq2seq/encoder3/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024] 
> seq2seq/encoder3/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [768,1024] 
> seq2seq/encoder3/BiRNN/BW/LSTMCell/B (DT_FLOAT) [1024] 
> seq2seq/encoder2/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024] 
> seq2seq/decoder/attention_decoder/Linear/Bias (DT_FLOAT) [128] 
> seq2seq/decoder/attention_decoder/AttnW_0 (DT_FLOAT) [1,1,512,512] 
> seq2seq/decoder/attention_decoder/AttnV_0 (DT_FLOAT) [512] 
> seq2seq/encoder0/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [384,1024] 
> seq2seq/decoder/attention_decoder/LSTMCell/W_0 (DT_FLOAT) [384,1024] 
> seq2seq/encoder1/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [768,1024] 
> global_step (DT_INT32) [] seq2seq/encoder1/BiRNN/BW/LSTMCell/B 
> (DT_FLOAT) [1024] 
> seq2seq/decoder/attention_decoder/AttnOutputProjection/Linear/Bias 
> (DT_FLOAT) [256] 
> seq2seq/decoder/attention_decoder/Attention_0/Linear/Matrix (DT_FLOAT) 
> [512,512] seq2seq/decoder/attention_decoder/Attention_0/Linear/Bias 
> (DT_FLOAT) [512] seq2seq/encoder2/BiRNN/BW/LSTMCell/B (DT_FLOAT) 
> [1024] seq2seq/decoder/attention_decoder/Linear/Matrix (DT_FLOAT) 
> [640,128] 
> seq2seq/decoder/attention_decoder/AttnOutputProjection/Linear/Matrix 
> (DT_FLOAT) [768,256] seq2seq/embedding/embedding (DT_FLOAT) 
> [335906,128] seq2seq/encoder0/BiRNN/BW/LSTMCell/B (DT_FLOAT) [1024] 
> seq2seq/encoder3/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [768,1024] 
> seq2seq/encoder0/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [384,1024] 
> seq2seq/encoder0/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024] 
> seq2seq/decoder/attention_decoder/LSTMCell/B (DT_FLOAT) [1024] 
> seq2seq/encoder1/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024] 
> seq2seq/encoder2/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [768,1024] 
> seq2seq/encoder1/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [768,1024] 
> seq2seq/encoder2/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [768,1024] 

:私はこれを見るチェックポイントファイルにinspect_checkpointを実行する際に

W tensorflow_serving/sources/storage_path/file_system_storage_path_source.cc:204] No versions of servable model found under base path tf_models/textsum/log_root/

:私は、以下のメッセージが表示されます上記のコマンドを実行している時に

bazel build //tensorflow_serving/model_servers:tensorflow_model_server 

bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=model --model_base_path=tf_models/textsum/log_root/ 

:私は、以下のコマンドを発行しています私は輸出のために何が起こる必要があるのか​​誤解しましたか?モデルが見つからない理由についてのアイデアはありますか?

+0

ちょっと野生の推測ですが、おそらく相対パスの代わりに絶対パスを使用しようとしていますか? –

+0

ロバートに感謝しますが、その場合は別のエラーになります。これも私が思った最初のことでした。 FileSystemStoragePathSourceがファイルシステムアクセスエラーを検出しました:サーブ可能モデルのベースパス/ tf_models/textsumを見つけることができませんでした – xtr33me

答えて

0

テンソルフローのためにエクスポートされたtextsumモデルを取得することにまだ苦労していますが、ここで私の問題は、モデルがエクスポート時に作成されたものと同じファイルを保存していたモデル。私がgitで受け取った答えに基づいて、これは当てはまりそうにないので、実際にはモデル自体でエクスポートを実行する必要があります。その時点で、TFサービングはモデルを見ることができるはずです。

関連する問題