NMTのように、シーケンスエンコーダデコーダモデルのシーケンスを使用してチャットボットを構築しています。与えられたデータから、訓練の際にデコーダの出力をエンコーダのセル状態とともにデコーダの入力に供給することを理解することができます。私は実際にリアルタイムでチャットボットを展開しているときに、その時間が予測しなければならない出力であるため、デコーダに何を入力すればよいのかを理解できません。誰かが私を助けてくれますか?ChatbotsのSeq2Seqモデル
1
A
答えて
0
正確な回答は、あなたがNeural Machine Translation model(NMT)から取得するビルディングブロックと、自分で置き換えるビルディングブロックによって異なります。 NMTと同じようにグラフ構造を仮定します。
もしそうなら、推論の時に、ゼロベクトルだけをデコーダに送ることができます。
内部詳細:NMTは、デコーダ内の次の入力を決定するために、Helper
と呼ばれるエンティティを使用して(tf.contrib.seq2seq.Helper
マニュアルを参照)。ザが次電池に供給されるnext_inputs
がHelper.next_inputs()
の正確戻り値である:それはステップを実行する際に特に
、tf.contrib.seq2seq.BasicDecoder
はヘルパーのみに依存しています。
は
tf.contrib.seq2seq.TrainingHelper
(通常は真実を粉砕する)次デコーダ入力を返して、例えばHelper
インタフェースの異なる実装が存在します。このヘルパーは、the tutorialに示されているようにトレーニングに使用されます。tf.contrib.seq2seq.GreedyEmbeddingHelper
は、入力を破棄し、前の出力からargmax
サンプリングされたトークンを返します。 NMTは、sampling_temperature
ハイパーパラメータが0であるとき、推論でこのヘルパーを使用する。tf.contrib.seq2seq.SampleEmbeddingHelper
同じことをするが、categorical(a.k.a.一般化ベルヌーイ)分布に従ってトークンをサンプリングする。sampling_temperature > 0
の場合、NMTはこのヘルパーを推論に使用します。- ...
コードがBaseModel._build_decoder
方法です。 GreedyEmbeddingHelper
とSampleEmbeddingHelper
の両方は、デコーダ入力が何であるかに関わらないことに注意してください。だから、実際には何でも食べることができますが、ゼロテンソルは標準的な選択です。
関連する問題
- 1. NStepLSTMとSeq2Seqモデル
- 2. G2P-seq2seq-cmudictモデルは
- 3. トレーニングデータseq2seqモデルの追加トレーニングデータ
- 4. Seq2Seqモデルの重み付け
- 5. seq2seqモデルのトレーニング方法の選択
- 6. TensorFlow target_vocab_sizeの数が少ないseq2seqモデル
- 7. Seq2Seqモデルの出力投影Tensorflow
- 8. 隠しユニットがPyTorchのseq2seqモデルで飽和する
- 9. バケット付きseq2seqモデルのtfrecordsキューを設定する方法は?
- 10. seq2seq - エンコーダバックプロパゲーション
- 11. tf.nn.dynamic_rnn seq2seqのシェイプエラー
- 12. chatbotsがMediaWikiページを読み込む
- 13. Tensorflow seq2seq `feed_previous 'argument`
- 14. Tensorflow Seq2SeqとValueError
- 15. Keras Seq2Seqはじめ
- 16. Tensorflow seq2seq - 返信の信頼
- 17. テンソルフロー変数seq2seqの印刷
- 18. LSTM seq2seqネットワークの入力 - Tensorflow
- 19. Seq2Seq TensorFlowチュートリアルでのバケットの使用
- 20. 複数の出力を持つテンソルフローseq2seq
- 21. グーグルTensorFlowベースseq2seqモデルがクラッシュ私は<a href="https://github.com/google/seq2seq" rel="nofollow noreferrer">seq2seq model.</a></p> <p>ベースのGoogleのRNNを使用しようとしている
- 22. Pretrained word2vecでSeq2seqを埋め込む
- 23. テンソルフローは永久にseq2seqを分散
- 24. Tensorflow seq2seq実行中にvocabに追加
- 25. Seq2seqセンチメント分析を実装するTensorFlow
- 26. Tensorflow SEQ2SEQトレーニングが突然遅い
- 27. Keras:LSTM Seq2Seqオートエンコーダ入力incompabilityエラー私はここにSeq2Seqの例を実行しようとしている
- 28. TensorflowのSeq2Seqのための多層双方向エンコーダ
- 29. シーケンスからシーケンスへのアンサンブルの作成(seq2seq)テンソルフローモデル?
- 30. 配列分類のための注意メカニズム(seq2seq tensorflow r1.1)
私はまた、https://github.com/tensorflow/nmtに従っています。私は同じ問題が解決策を見つけることができますか? – jignasha