私の訓練されたモデルでPythonスクリプト全体をコンパイルして、より高速な推論を行う方法はありますか? Pythonインタプリタの読み込み、Tensorflow、numpyなどのすべての処理は、ほんのわずかな時間がかかります。これがサーバーのリクエストで発生する必要がある場合、それは遅いと思われます。より高速な推論のためにモデルを実行可能ファイルとしてコンパイルしますか?
編集
私はサービス提供Tensorflowを使用することができます知っているが、理由はそれに関連した費用のにしたくありません。
シグナルをリッスンし、モデルをロードしてデモを使用して要求をロードし、フォーマットされた応答を生成するだけではどうですか? –
@AlexanderHuszagh私はそれで涼しいです。私はそれをどのように設定できるかについての情報を持っていますか? Python初心者はここに... –
私は正におそらくこれをTwistedを使ってサーバーデーモンとしてやっています。シンプルで特殊な例があります。これを特殊化してJSONデータをロードしてから、Tensorflowをロードしてコードを処理して処理し、レスポンスをフォーマットするためにコードを処理する必要があります。 https://www.saltycrane.com/blog/2010/08/ twisted-web-post-example-json/ –