2017-10-08 13 views

答えて

1

あなたは最初の予測のルーチンに似input_feedを組み立てる必要があります。いったんそれができたら、必要な隠れ層の上でsess.runを実行してください。 input_feedをassmebleする

self.encoder_last_state以上

input_feed = self.check_feeds(encoder_inputs, encoder_inputs_length, decoder_inputs=None, decoder_inputs_length=None, decode=True) 
input_feed[self.keep_prob_placeholder.name] = 1.0 

sess.run:

encoder_last_state_activations = sess.run(self.encoder_last_state, input_feed) 
+0

私はすでにseq2seqモデルを訓練してきました。私はちょうど隠れた層の価値を得たいと思う。だから、私はsess.runをもう一度やって、もう一度逆戻りしない? –

+0

いいえ、あなたの例では、トレーニングを実行するためには、トレーニングオペレータである 'self.updates'を実行する必要があります。 self.encoder_last_stateでセッションを起動すると、これらの値が計算されます。 – amirbar

関連する問題