2016-12-19 8 views
0

例のseq2seq_model.pyコードのアテンションマスクを計算するために使用されるattention()メソッドのようです。シーケンスからシーケンスへのコードのTensorFlowコードは呼び出されませんデコードする。デコード時にTensorFlowのseq2seqサンプルコードで注意行列を抽出する

誰でもこれを解決する方法を知っていますか?同様の質問がここで提起されました:Visualizing attention activation in Tensorflow、しかし、それは私にどのようにデコード中に行列を取得するか分かりません。

ありがとうございます!

答えて

0

なぜマスクが必要ですか?それが可視化のためのものであれば、テンソルを渡してセッション実行でフェッチする必要があります。

関連する問題