私はテキスト分類の問題を解決しています。私は、私自身のmodel_fn
と一緒にEstimator
クラスを使って分類器を定義しました。 Googleの事前トレーニング済みのword2vec
の埋め込みを初期値として使用して、それを手近な作業のためにさらに最適化したいと思います。訓練を終えたword2vecを読み込んで、見積もりにembedding_lookupを初期化するmodel_fn
私はこの投稿を見ました:Using a pre-trained word embedding (word2vec or Glove) in TensorFlow
これは「生の」TensorFlowコードでどうやって進むのか説明しています。しかし、実際にはEstimator
クラスを使用したいと思います。
拡張子として、このコードをCloud ML Engineで訓練したいと思いますが、かなり大きなファイルを初期値で渡す良い方法はありますか?
のは、我々のようなものがあるとしましょう:
def build_model_fn():
def _model_fn(features, labels, mode, params):
input_layer = features['feat'] #shape=[-1, params["sequence_length"]]
#... what goes here to initialize W
embedded = tf.nn.embedding_lookup(W, input_layer)
...
return predictions
estimator = tf.contrib.learn.Estimator(
model_fn=build_model_fn(),
model_dir=MODEL_DIR,
params=params)
estimator.fit(input_fn=read_data, max_steps=2500)
おかげで、ちょうど小さなもの:) ' – Tristan
おかげトリスタン等間隔。:それは' tf.estimator.EstimatorSpec(...、足場= tf.train.Scaffold(init_feed_dict = {my_embedding_numpy_array embed_ph}でなければなりません私は説明を笑ったにもかかわらず構文。 –