TF saved_model
を受け取ったサーバーを正常に作成しましたが、ここでクエリを送信して予測を取得します。 しかし、私はクライアントの仕組みや実装方法を理解するのに苦労しています。 私がオンラインで見つけたのはbasic tutorialですが、mnistのクライアントコードのみを提供しています。それは自分のmdoelには合いません。 誰かが、別のモデルのクライアントの使用方法や実装方法を教えてくれますか?クライアントを使用しているTensorflow
おかげ
TF saved_model
を受け取ったサーバーを正常に作成しましたが、ここでクエリを送信して予測を取得します。 しかし、私はクライアントの仕組みや実装方法を理解するのに苦労しています。 私がオンラインで見つけたのはbasic tutorialですが、mnistのクライアントコードのみを提供しています。それは自分のmdoelには合いません。 誰かが、別のモデルのクライアントの使用方法や実装方法を教えてくれますか?クライアントを使用しているTensorflow
おかげ
は、それが生産に予測モデルを置くために私のような人々のためにとても便利です。しかし、私はテンソルフローがドキュメンテーションでうまく機能しなかったことを認めなければなりません。あるいは、テンソルフローを使っている人がすでにテンソルフローでかなり良い知識を持っていると仮定します。私はそれがどのように動作するかを理解するために長い間立ち往生していました。彼らのウェブサイトでは、概念や例をよく紹介しましたが、間には何かがありません。
チュートリアルhereをお勧めします。これは最初の部分であり、2番目の部分に続くこともできます。リンクはその記事にあります。
一般に、.ckptファイルをサービス提供可能なモデル(.pbファイルとvariablesフォルダ)にエクスポートするときは、モデルの入力、出力、およびメソッド名を定義し、署名として保存する必要があります。tf.saved_model.signature_def_utils.build_signature_def
、あなたはこの部分で私が上で言ったことができます:
tf.saved_model.signature_def_utils.build_signature_def(
inputs={‘images’: predict_tensor_inputs_info},
outputs={‘scores’: predict_tensor_scores_info},
method_name=\
tf.saved_model.signature_constants.PREDICT_METHOD_NAME)
あなたは著者が記事に入力と出力を定義された方法に従い、カスタマイズしたモデルに同じことを行うことができます。
その後、クライアントのスクリプトで署名とフィード入力をサーバーに呼び出さなければならないため、サーバーは使用する方法を認識して出力を返します。作成者がクライアント・スクリプトをどのように書いたかを確認して、署名と呼び出し入力の対応する部分を見つけることができます。