2017-01-12 3 views
2

をembedding_rnn_seq2seq。 tensorflow seq2seqモデルではど​​うすればいいですか?は、私はそれぞれの世界がword2vec表現を持っている文章を供給しようとしている

寸法[num_of_observations又はBATCH_SIZE X word_vec_representation X sentense_lenght]を有する可変

enc_inp = [tf.placeholder(tf.int32, shape=(None,10), name="inp%i" % t) 
     for t in range(seq_length)] 

と仮定する。

私はembedding_rnn_seq2seqするためにそれを渡す

decode_outputs, decode_state = seq2seq.embedding_rnn_seq2seq(
    enc_inp, dec_inp, stacked_lstm, 
    seq_length, seq_length, embedding_dim) 

エラーが発生し

ValueError: Linear is expecting 2D arguments: [[None, 10, 50], [None, 50]] 

はまた、私は最初のセルへの入力としてベクトルではなくスカラーをPASすることができますどのように、より複雑な問題 あり私のRNN?今、(私たちは、任意の配列についての場合)、それは

  1. は、シーケンスの最初の値(スカラ)
  2. コンピューティングまず層RNNまず層埋め込むセルの出力を得るように見えることで

  3. コンピューティング初層RNN第二層の埋め込みセルの出力
  4. など

  • しかし、これは必要とされている。

    1. シーケンスの最初の値(ベクトル)を取得
    2. (入力がベクトルである場合、通常の計算単純パーセプトロンとして)第一層RNNファーストレイヤーセル出力を計算
    3. セルの出力を埋め込む第一層RNN二層を算出(AS入力がベクトルである場合の一般的な計算の単純パーセプトロン)
  • 答えて

    1

    主な点は次のとおりです。 seq2seqは内部で単語を埋め込みます。 Here is reddit question and answer

    また、smbdは使用したい場合はpretrained Word2Vecそれを行うための方法がある、 は、以下を参照してください。

    だから、これがために何にのみ使用することができません

    を埋め込む単語
    関連する問題