Googleクラウドml-engineにリレイインドバージョンの開始モデルを導入しようとしています。 SavedModel documentation、reference、およびpostのrhaertel80の情報を集めて、私は慣れたモデルをSavedModelに正常にエクスポートし、バケツにアップロードしてmlエンジンバージョンにデプロイしようとしました。Google Cloud NASエンジンにSavedModelを導入する
この最後のタスクは、実際にバージョンを作成しますが、それはこのエラーを出力します
Create Version failed. Bad model detected with error: "Error loading the model: Unexpected error when loading the model"
そして、私はコマンドライン経由でモデルから予測を取得しようとすると、私は、このエラーメッセージが出ます: "message": "Field: name Error: Online prediction is unavailable for this version. Please verify that CreateVersion has completed successfully."
私はいくつかの試みをしましたが、異なるmethod_name
とtag
のオプションを試しましたが、どれも成功しませんでした。
コードは、元の開始コードに追加が役立つかもしれない
### DEFINE SAVED MODEL SIGNATURE
in_image = graph.get_tensor_by_name('DecodeJpeg/contents:0')
inputs = {'image_bytes': tf.saved_model.utils.build_tensor_info(in_image)}
out_classes = graph.get_tensor_by_name('final_result:0')
outputs = {'prediction': tf.saved_model.utils.build_tensor_info(out_classes)}
signature = tf.saved_model.signature_def_utils.build_signature_def(
inputs=inputs,
outputs=outputs,
method_name='tensorflow/serving/predict'
)
### SAVE OUT THE MODEL
b = saved_model_builder.SavedModelBuilder('new_export_dir')
b.add_meta_graph_and_variables(sess,
[tf.saved_model.tag_constants.SERVING],
signature_def_map={'predict_images': signature})
b.save()
別の考慮事項です: 私は、ローカル予測を得るためにgraph_def.SerializeToString()
でtrained_graph.pb
をエクスポートし、それが正常に動作します使用しているが、私は代用する場合それはsaved_model.pb
と失敗します。
どのような問題が発生する可能性がありますか?あなたのsignature_def_mapで
をあなたがあなたの署名と一致したサンプルrequest.jsonを共有する気でしょうか?私はこのエラーに苦しんでいます。 'prediction_lib.PredictionError:(4、"グラフの実行中の例外:テンソルのu'DecodeJpeg/contents:0のシェイプ(1)の値を '()'の形で送ることはできません) '' – Billy