2017-02-22 18 views
2

Tensorflowのtranslation model(いくつかの変更を加えて)を使って、Ubuntu Dialogue Corpusからのメッセージとレスポンスのペアを与えてチャットボットを作った。 誰かが会話の中でどのようにコンテキストを処理できるか考えている人がいるのでしょうか?I。私は新しい文章を入力した後、チャットボットが私が以前に言ったことを忘れることを望んでいません。チャットボットの文脈を扱う

私は前処理のコンテキストを処理するための戦略について考えることができます。私はこの会話を持っていることを言うことができます:

M1: Hi, how are you? 
R1: Hey, good! I just finished work at the restaurant. How are you? 
M2: Good. How was it? 
R2: Exhausting... 
M3: Many customers? 
R3: Yes, and they didn't tip well either! 

それから私はこのようなペアでそれらを置くことができます:(M1-R1)、(R1M2-R2)、(R2M3-R3)等...別のオプションは次のようになり各ペアにM1からコンテキストを保存する例(M1R1M2R2M3-R3) - しかし、訓練文の長さが長くなり(多く)、訓練中のメモリ割り当てが増え、おそらく私のネットワークを減らす必要があります(各層のより少ないニューロン)。

彼らはthis paperに似たようなことをしましたが、そのモデルがどのように構築され、どのように処理するのか分かりません。

答えて

0

Bot-contextは、コンテキストを維持する簡単な方法を提供するクールなライブラリです。関連するblog post

+0

私は現在、生成的なチャットボットに取り組んでおり、ボットコンテキストは検索に適しているようです – siljech