GCPで既存のscikit-learnモデルとRモデルをそのままホストして実行する方法を理解しようとしています。 MLエンジンはTensorflow特有のものです。データセットが大きすぎてデータラボを取得できない場合は、Googleクラウドプラットフォームでスキット学習モデルをトレーニングし、モデルを管理するにはどうすればよいですか? MLエンジンを使用することはできますか?あるいは、ほとんどの人が行うアプローチがありますか?Google Cloud Platformでscikit-learnモデルを管理する
アップデートとして、私はscikit-learnモデルを訓練するpythonスクリプトを、MLエンジンに訓練ジョブとして送信することで実行することができましたが、pickledモデルをホストするか、予測。
これは、使用するケースによって異なります。大きなデータセットとは何ですか?インスタンスを大きくすると、datalabインスタンスのメモリに収まるのでしょうか?これが最も簡単な解決策です。そうでない場合は、TF LearnやSpark MLlibのような、より適切なツールを見るべき時が来るかもしれません。 –