TensorflowカスタムオペレーションまたはカスタムリーダーをC++でクラウドml内にデプロイすることが可能かどうか疑問に思っていました。TensorFlow + cloud-ml:カスタムネイティブオペレーション/リーダをデプロイ
標準モードでネイティブコードを実行できないようです(私は本当に仮想環境を使用することに興味がありません)。少なくともPythonパッケージでは、C依存性のない純粋なPythonしか受け入れません。
TensorflowカスタムオペレーションまたはカスタムリーダーをC++でクラウドml内にデプロイすることが可能かどうか疑問に思っていました。TensorFlow + cloud-ml:カスタムネイティブオペレーション/リーダをデプロイ
標準モードでネイティブコードを実行できないようです(私は本当に仮想環境を使用することに興味がありません)。少なくともPythonパッケージでは、C依存性のない純粋なPythonしか受け入れません。
これを行う最も簡単な方法は、オペレーションを含むカスタムTensorflow Wheel全体のビルドを余分なパッケージとして含めることです。参照元からTFホイールを構築するためのhttps://cloud.google.com/ml-engine/docs/how-tos/packaging-trainer#to_include_custom_dependencies_with_your_package を:追加パッケージを指定するための参照https://www.tensorflow.org/install/install_sources#build_the_pip_package
あなたはまた、新しいオペアンプのためだけの.soファイルをダウンロード/インストールしようとすることができ、それは、セットアップの内部でそれをダウンロードするのいずれかが必要となりますあなたのトレーニングパッケージの.pyまたはトレーニングPythonコード自体の中で。
現在のところ、トレーニング中はカスタムパッケージをアップロードできますが、バッチまたはオンライン予測ではできないため、カスタムTFバージョンを使用してトレーニングされたモデルは予測サービスでは動作しない可能性があります。
ありがとうございました!私はそれについての情報を収集するのに苦労したので、docの部分に感謝します。 –